Derzeit wird viel über ChatGPT diskutiert, eine neue Anwendung Künstlicher Intelligenz. Bei Licht besehen handelt es sich eigentlich nur um eine verbesserte Suchmaschine, die ihre Ergebnisse gleichzeitig noch zu einem eigens erzeugten Text zusammenfasst. Der auf eine vom Nutzer gestellte Frage hin generierte Text ist dabei kein bloßes Plagiat, sondern einzigartig; obwohl keine wirkliche Leistung des Menschen dahintersteht. Sprachlich wirken manche Ausführungen noch etwas holprig, was in verbesserten Versionen ganz sicher noch nachgearbeitet wird.
Chancen
Für jeden, der in irgendeiner Weise an Textproduktion beteiligt ist, sind Programme wie ChatGPT eine technische Hilfe, mit der eine Internet- Recherche künftig deutlich abgekürzt werden kann. Auf der einen Seite ist das natürlich eine deutliche Arbeitserleichterung. Auf der anderen Seite steigt damit der berufliche Druck, weil ab nun erwartet wird, dass man einen Text mit solcher Hilfe schneller einreichen kann als bisher. In jedem Fall muss man sich auf die vom Programm vorgenommene Auswahl möglicher Quellen verlassen, die im Einzelfall sehr einseitig ausfallen kann. Außerdem besteht die Gefahr, dass das Programm besonders häufig oder prominent geäußerte Meinungen hoch wertet und damit einseitige oder besonders medial formulierte Meinungen zusätzlich verstärkt.
Vor allem werden zukünftig schwache Schüler oder Journalisten unter Zeitdruck zu Programmen wie ChatGPT greifen. Dadurch bekommen sie zwar ein schnelles, unter Umständen repräsentatives Ergebnis, wissen aber nicht mehr, wie die darin geäußerte Meinung zustande gekommen ist oder wie glaubwürdig sie ist.
Wer ChatGPT zukünftig sinnvoll nutzen will, der muss ganz gezielte und gut überlegte Fragen formulieren. Will ein Theologe beispielsweise erfahren, wann und von wem das Johannesevangelium verfasst wurde, wird er bei einer einfachen Frage nur die gängige aber bibelkritische Antwort vorgesetzt bekommen. Er sollte also gezielter nach „Verfasserschaft Johannesevangelium evangelikale Sicht“ oder „Verfasserschaft verschiedene Deutungen“ fragen. Dann muss er darauf vertrauen, dass die für ihn relevanten Daten in den Suchprogrammen auch hoch genug gelistet sind, damit sie in dem für ihn erzeugten Text erwähnt werden.
Risiken
Natürlich erleichtern Programme mit künstlicher Intelligenz, wie ChatGPT, im Idealfall die Routine von Recherche und Darstellung eines bisherigen Forschungsstandes. Gerade dieser oft mühsame Prozess aber ist absolut notwendig, damit ein Mensch, der dann kreativ weiterdenken soll, die Vielfalt und Komplexität seines Themas wahrnimmt und versteht, einschließlich aller wirklich relevanten Fakten und Gegenargumente.
Wesentliche Probleme von Programmen wie ChatGPT liegen 1. In der zwangsläufigen Zunahme von indirekten Plagiaten, die aber deutlich schwerer erkennbar sind und 2. In einer abnehmenden Fähigkeit zur eigenen Analyse und Bewertung eines komplexeren Sachverhalts. Außerdem kann es schnell dazu kommen, dass die zur Beurteilung eigentlich benötigten Sachinformationen noch stärker als bisher ausgeklammert oder nicht gelernt werden.
Weil man weiß, dass neue Technik letztlich nicht zu verbannen ist, will man sie vernünftigerweise sinnvoll integrieren. Schüler sollen beispielsweise die von ChatGPT produzierten Aufsätze überprüfen und korrigieren. Wie ein Mantra wird von Bildungspolitikern widerholt, dass Faktenwissen überholt sei. Man braucht eben nicht mehr das Auswendiglernen, sondern das Bewerten. Dabei sollte allerdings klar sein, dass nur derjenige zuverlässig Fehler erkennt und Schlussfolgerungen überprüfen kann, der über ein umfangreiches Faktenwissen verfügt. Je mehr Schüler und Studenten auf ChatGPT und ähnliche Angebote zurückgreifen, desto weniger vertrauenswürdige Referenzgrößen zur Überprüfung werden sie aus eigener Erfahrung heranziehen können. Wer da die Fakten nicht genau kennt, der wird keine von ChatGPT produzierten Texte zuverlässig kontrollieren und korrigieren können. Weniger motivierte Schüler, werden erst gar nicht den mühsamen und langwierigen Prozess des Lernens und Prüfens gehen, weil sie ihre Ausarbeitungen dank reichhaltiger Internet- Ressourcen auch viel einfacher erstellen lassen können.
Mancher Lehrer hofft momentan noch, aufgrund von Wortwahl und Stil die echten von den per Künstliche Intelligenz erstellten Aufsätzen unterscheiden zu können. Das funktioniert natürlich nur, wenn ausreichendes Vergleichsmaterial zur Verfügung steht, was bei denen nicht vorliegt, die von Anfang an auf ChatGPT und ähnliche Angebote zurückgreifen. Außerdem ist nur eine verhältnismäßig geringe Anpassung nötig, um einem Programm auch solche Eigenheiten anzutrainieren. Zukünftig wird es für Schüler und Studenten deutlich schwerer, Abwägungen, Bewertungen und Prüfungen selbst zu lernen und einzuüben, weil diese für das Denken und Forschen absolut wichtigen Prozesse viel bequemer von Künstlicher Intelligenz vorgegeben werden.
Einer vorschnellen Euphorie müsste man auch entgegenhalten, dass mit ChatGPT und ähnlichen Programmen zwar immer neue Texte formuliert werden, dabei aber nichts wirklich Neues entsteht. In gewisser Weise kann man die Produktion neuer Medien- Inhalte mit Programmen wie ChatGPT noch einmal erheblich beschleunigen. Am Ende befindet man sich wahrscheinlich in einer endlosen aber wahnsinnig schnellen Informationsschleife, wie manche postmoderne Kulturkritiker schon seit längerem vermuten. Das Publikum bekommt immer neue Beiträge vorgesetzt, die lediglich schon bekannte Informationen neu formulieren und zugriffsoptimiert präsentieren. Schon jetzt drehen sich viele Internetnutzer fortwährend im Kreis, weil entsprechende Analyseprogramme ihnen immer wieder solche Beiträge empfehlen, die ihren einmal getroffenen Interessen und Meinungen entsprechen. Das wird sich durch ChatGPT noch einmal verstärken.
Nach einer bisher noch nicht bewältigten Welle von Plagiaten, Ghostwritern und gefälschten Forschungsergebnissen gibt es mit Künstlicher Intelligenz nun eine weitere Möglichkeit, im Bereich der Wissenschaft Scheinleistungen eindrucksvoll zu präsentieren. Weil sich andere Wissenschaftler in ihrer Arbeit auf diese unzuverlässigen Ergebnisse berufen, besteht die Gefahr einer weiteren Potenzierung zweifelhafter „Forschungsergebnisse“. Diese werden natürlich auch private und politische Entscheidungen beeinflussen. Außerdem könnten Programme wie ChatGPT die schon jetzt kaum überschaubare Flut wissenschaftlicher Veröffentlichungen weiter ansteigen lassen, weil es damit immer einfacher wird, neue Artikel zu produzieren. Auch das wird effektive, wissenschaftliche Arbeit eher erschweren als fördern.
Die hinter ChatGPT stehenden Unternehmen werden sich vermutlich hüten, die Verantwortung für alle von ihrem Programm formulierten Meinungen und Behauptungen zu übernehmen. Da das Programm über keine eigene Ethik, Moral oder echte Kritikfähigkeit verfügt, wird es eben immer wieder auch ganz falsche, tendenziöse Meinungen produzieren oder fehlerhafte Schlussfolgerungen ziehen. Herausfordernde und anregende Sondermeinungen, sowie eigene Wertungen und Schwerpunkt bei der Darstellung eines Sachverhalts werden durch den Einsatz dieser Programme stark in den Hintergrund treten.
Mit solchen, auf Künstliche Intelligenz setzenden Programmen, wird es künftig noch leichter sein, bestimmte Meinungen massiv zu fördern oder vollkommen zu unterdrücken. Unternehmen oder Staaten können das entsprechende Chat- Programm nach Wunsch justieren und nur noch die genehmen Internetseiten für eine künstlich erzeugte Zusammenfassung zulassen. Wahrheit und Wahrheitssuche werden dann noch stärker als bisher von der freien Beurteilung des jeweiligen Nutzers getrennt.
Ganz gleich aber wie man sie im Detail auch bewertet, man sollte sich keiner Illusion über diese neue und deutlich verbesserte Technik künstlicher Texterzeugung hingeben. Mit großer Sicherheit wird sie sich durchsetzen und weiter perfektioniert, mit allen denkbaren Nebenwirkungen.
Kritische Begleitung
Bei der Anwendung von ChatGPT stellen sich erneut wichtige technologie- ethische Fragen. In weiteren Bereichen des Lebens, die man bis vor kurzem kaum für möglich hielt, gibt der Menschen seine Autonomie und seinen individuellen Überblick auf. Damit verschwindet auch ein weiterer Teil seiner Verantwortlichkeit. Wer haftet, wenn aufgrund eines von ChatGPT produzierten Briefs sich ein Teeny das Leben nimmt, eine neue Verschwörungstheorie verbreitet oder sogar ein Krieg ausgelöst wird? ChatGPT und ähnliche Programme haben kein Gewissen, Lüge und Wahrheit als moralische Größen existieren für sie nicht. Auch die möglichen Konsequenzen im realen Leben spielen für künstliche Intelligenz eine untergeordnete Rolle. Computerprogramme leiden nicht, können nicht gefoltert werden noch hungern.
Es ist nur eine Frage der Zeit, bis künstlich erzeugte Texte nicht nur die Lern- und Bewertungsfähigkeit von Menschen deutlich vermindert, sondern auch in der übrigen, vom Internet beschleunigten Kommunikation zu Irritationen, Fälschungen und Konflikten führt. Das ist einerseits ein sich selbst verstärkender Prozess. Anderseits gibt es natürlich auch genügend kriminelle und ideologische Gründe diese Technik für die eigenen Zwecke einzusetzen.
Gerade angesichts sich schnell entwickelnder technischer Möglichkeiten müssen die mühsamen Fragen der Auswirkungen, der ethischen Legitimität und der Kontrollierbarkeit dieser Anwendungen gestellt und hoffentlich auch befriedigend beantwortet werden. Wenn man solche Neuentwicklungen nicht angemessen begleitet und auf ihre Folgen hin durchdenkt, dann werden sie höchstwahrscheinlich auch erhebliche Schäden verursachen. Momentan bereits absehbar sind eine abnehmende Lernmotivation, mehr arbeitslose Textproduzenten, eine zunehmend erschwerte Unterscheidung zwischen echten und erfundenen Informationen und eine sinkende Verantwortlichkeit für gesellschaftliche Prozesse, die durch KI-gestützte Berichte ausgelöst werden.
Je mehr Computerprogramme Informationen sammeln, neu kombinieren und auswerten, desto wichtiger sind die zugrundeliegenden Werte und Weltbilder. Deshalb ist die weitgehende Auflösung übergeordneter, allgemeingültiger Wahrheit in der Postmoderne ein noch größeres Problem. Wer Wahrheit weitgehend abgeschrieben hat – außer der eigenen, nicht mehr begründbaren – dem fehlen zunehmend die Möglichkeiten, Informationen und Schlussfolgerungen sinnvoll analysieren und beurteilen zu können.
Christen sollten in der Diskussion um Künstliche Intelligenz weder in eine altbekannte Technikfeindschaft verfallen, noch die deutlichen ethischen Probleme dieser Art der Textproduktion vernachlässigen. Hier eröffnen sich ganz neue Fragen über Urheberschaft, Wahrheit und Verantwortung für eine öffentlich verbreite Meinung, bzw. für vorgebliche Lernleistungen in Schule, Studium und Beruf.
Nicht zu unterschätzen ist beim Einsatz von ChatGPT die Gefahr von direkter oder indirekter Lüge und Falschinformation, bzw. der bloßen Vorspiegelung eigener Forschung. Hier aber unterstehen Christen einer eindeutigen biblischen Verpflichtung, auch wenn die mit größerer intellektueller Arbeit verbunden ist. „Am Tag des Gerichts werden die Menschen Rechenschaft über jedes [falsche und] nutzlose Wort ablegen müssen, das sie gesagt haben.“ (Mt 12, 36) Gläubige sollen persönlich und überzeugt hinter ihren Worten und Meinungen stehen können. „Ansonsten denkt über das nach, meine Geschwister, was wahr, was anständig und gerecht ist! Richtet eure Gedanken auf das Reine, das Liebenswerte und Bewundernswürdige; auf alles, was Auszeichnung und Lob verdient!“ (Phil 4, 8) Außerdem sind Christen angesichts zunehmender virtueller Wahrheitsdeutungen umso stärker herausgefordert, die grundlegenden Werte und Maßstäbe ihres Denkens beständig von Gott justieren zu lassen. „Und richtet euch nicht nach den Maßstäben dieser Welt, sondern lasst die Art und Weise, wie ihr denkt, von Gott erneuern und euch dadurch umgestalten, sodass ihr prüfen könnt, ob etwas Gottes Wille ist – ob es gut ist, ob es Gott gefallen würde und ob es zum Ziel führt!“ (Röm 12, 2)
(von Michael Kotsch)
Eine Antwort auf „ChatGPT. Künstliche Intelligenz!?“
Es ist diskiminierend und abwertend, eine geistige, Gottgegebene Eigenheit des Menschen als „künstlich“ zu bezeichnen nur aufgrund der überragenden Masse an Informationen.
Diese KI hat kein Gewissen, keine Werte und dem Schöpfergott nicht verantwortlich, also gottlos.
Einen eigenen Geist zum Denken und folgerichtig zu kombinieren hat sie auch nicht, sonst könnte sie dir Dampfmaschine erfunden haben.
Aber eine ganze Menschheit in die Irre führen, daß sie der Co2-Klimalüge Gauben schenken, weil die Masse bestimmt, was Wahrheit ist, das ist nur durch die KI möglichllch.