Interview mit A. Palkowitsch, Teil 1
Künstliche Intelligenz als Utopie oder Dystopie?
Aus welchen Gründen beschäftigst du dich als Theologin mit dem Thema der Künstlichen Intelligenz (kurz: KI)?
Alexandra Palkowitsch: Für mich ist ein wichtiger Teil des Glaubens das Bemühen, gut zu leben und moralisch richtig zu handeln. Da geht es um ethische Themen, weshalb die Ethik auch ein Teil der Theologie ist. Als Sozialethikerin beschäftige ich mich damit, wie Strukturen und Institutionen möglichst gerecht gestaltet werden können – auch in Bezug auf Künstliche Intelligenz.
Welche Möglichkeiten eröffnet diese für uns als Gläubige und als Religionsgemeinschaft?
Alexandra: Bereits jetzt unterstützen KI-basierte Technologien Pfarren und Diözesen im Verwaltungs- und Organisationsbereich. Auch das persönliche Glaubensleben kann etwa durch KI-gestützte Chatbots, die religiöse Fragen beantworten, bereichert werden. Chancen könnt es auch bei der Zugänglichkeit zum Glauben geben: Gerade in Regionen, wo viele Menschen mit unterschiedlichen Sprachen leben, könnten KI-gestützte Simultanübersetzungen von Predigten das Mitfeiern in Gottesdiensten erleichtern. Da KI auch in Bezug auf selbstfahrende Autos zentral ist, könnte dies vielleicht dafür genützt werden, Menschen in die Kirche zu bringen, die sonst keine Möglichkeit haben, an Messen teilzunehmen.
Und auf dem theoretischenGebiet der Theologie?
Alexandra: Hier könnten neue theologische Erkenntnisse in unerwarteten Bereichen errungen werden: Gerade im Vergleich mit KI kommt sehr schnell die Frage auf, was den Menschen ausmacht. Da merkt man, wie wichtig Emotionalität und Körperlichkeit sind und entwickelt dafür ein neues Bewusstsein.
Siehst du auch Gefahren, die in dieser technologischen Entwicklung lauern? Wie können wir ihnen begegnen?
Alexandra: Ja, natürlich. Neben dem Ressourcenverbrauch von Technik (Energie und Rohstoffe) muss man immer schauen, welche Interessen hinter Technologie-Entwicklungen stehen, oft sind das ökonomische oder Machtinteressen großer Unternehmen. Eine andere, häufig diskutierte Gefahr ist, dass KI ja auf großen Datenmengen und Algorithmen basiert. Diese sind oft vorurteilsgetränkt, was man ihnen abzutrainieren versucht. Aus demokratiepolitischer Perspektive problematisch ist, dass dabei Einzelunternehmen entscheiden, was richtig oder zu korrigieren ist. Da bräuchte es aber gesellschaftliche Ausverhandlungsprozesse und demokratische Legitimation. Bei ChatGTP ist dies auch mit dem weiteren Problem der schlechten Arbeitsbedingungen verbunden: Um das System zu lehren, welche Gedanken oder Aussagen sexistisch, rassistisch oder gewaltvoll sind, engagierte man Billigarbeitskräfte in Kenia, die diese mühevolle „Klickarbeit“ übernahmen.
Was sollte ich als KI-Konsumierende weiters bedenken?
Alexandra: Ein sehr wichtiger Aspekt ist auch der Datenschutz. Die Unmengen unserer Daten, die KI braucht, sollen einerseits sicher verwahrt werden und andererseits soll uns bewusst sein, was damit passiert und dass diese für Unternehmen sehr großen Wert haben. Gerade bei ChatGTP, das durch den Einsatz weiter trainiert wird, helfe ich durch meine Verwendung dem Unternehmen. Ich bin nicht nur mehr Konsumentin, sondern trage bei Chatbots auch zur Entwicklung bei. Das sollte mir bewusst sein.
Interview: Sarah Triml
Künstliche Intelligenz (KI)
Der Begriff der Künstlichen Intelligenz steht für das Bestreben, Computersysteme so zu programmieren, dass sie menschliche Denkmuster imitieren können. Die dabei hergestellten Systeme sollen so gut vernetzt sein, dass sie eigenständig Ergebnisse liefern und Aufgaben lösen können.
ChatGTP ist ein Chatbot. Darunter versteht man ein Computersystem, mit dem chatten möglich ist. Chatbots haben je einen Bereich zur Textein- und -ausgabe, über dem mit dem System kommuniziert werden kann. In jüngster Vergangenheit erregte „ChatGTP” als System, das schummeln etwa an Schulen unkompliziert ermöglicht, mediale Aufmerksamkeit.
Der 2. Teil des Interviews wird in der kommenden Woche in Kirche bunt veröffentlicht.
Autor:Sarah Triml aus Niederösterreich | Kirche bunt |
Kommentare
Sie möchten kommentieren?
Sie möchten zur Diskussion beitragen? Melden Sie sich an, um Kommentare zu verfassen.