Das Büro für Technikfolgenabschätzung beim Deutschen Bundestag (TAB) hat in einer Studie die Anwendungsmöglichkeiten von ChatGPT und vergleichbaren Modellen u. a. auf die Informationssuche und den Journalismus beleuchtet.
KI-Modelle wie ChatGPT sind bereits in der Lage, sprachlich anspruchsvolle Texte anhand unstrukturierter Daten zu verfassen. Im Journalismus können Redaktionen auf diese Weise Zeit und Kosten einsparen und auch kleinere Zielgruppen erschließen. Allerdings bewertet die Studie die Qualität der automatisch erzeugten Texte als kritisch. Mehrere Praxisbeispiele hätten fachliche Fehler, erfundene Angaben oder Plagiate aufgewiesen. Beispielhaft wird u. a. vom „AI and Automation-Lab“ des Bayerischen Rundfunks berichtet, das mit GPT-3 experimentierte und zu dem Schluss gekommen sei, dass es einfacher und schneller sei, den ganzen Text selbst zu recherchieren und zu schreiben, statt den geschriebenen Text abzunehmen.
Ein großes Potenzial sieht die Studie in der Übersetzungsfähigkeit von künstlicher Intelligenz: Damit können Beiträge schnell in Fremdsprachen und leichter bzw. einfacher Sprache barrierearm aufbereitet werden. Perspektivisch verspricht auch die Möglichkeit, multimodale Daten durch Künstliche Intelligenz zu verarbeiten, große Chancen: so entstehen aus Text-, Ton- oder Bildbeiträgen andere Formate, wie beispielsweise aus einem Artikel ein Podcastbeitrag. Auch im Datenjournalismus ist Künstliche Intelligenz eine große Unterstützung, indem sie große, unstrukturierte Datensätze ordnet.
Doch wie werden journalistische Beiträge und andere Formate künftig online auffindbar sein, wenn Anfragen in Suchmaschinen nicht mehr wie bisher als Linklisten ausgegeben werden? Mit ChatGPT wird gerade das Dialogsystem erprobt: Auf eine Suchanfrage folgt eine ausformulierte Antwort. Für Anbieter:innen von Internetseiten ergibt sich damit das Risiko, dass User nicht mehr auf ihre Inhalte gelenkt werden. Damit würden Inhalteanbieter:innen Reichweite und bei Werbefinanzierung auch eine wichtige Einnahmequelle verlieren.
Auf Social-Media-Plattformen moderieren Systeme wie ChatGPT inzwischen Beiträge und nehmen Überprüfungen unangemessener Beiträge vor. Gleichzeitig kreieren diese Systeme manipulative Postings, die sich kaum noch von Beiträgen von Menschen unterscheiden lassen. Desinformationskampagnen lassen sich kostengünstig streuen. Die Studie kritisiert, dass hier kaum Gegenmaßnahmen ergriffen werden, um die missbräuchliche Nutzung entlarven und ausbremsen zu können.
Grundsätzlich sei ein Vertrauensverlust in demokratische Prozesse und den Diskurs durch die Anwendung von Künstlicher Intelligenz zu befürchten, so die Studie. Denn nun sei stets auch der Inhalt von Texten zu bewerten und nicht mehr nur die Form.