Künstliche Intelligenz in den Medien: Fortschritt oder Risiko?

Das Büro für Technikfolgenabschätzung beim Deutschen Bundestag (TAB) hat in einer Studie die Anwendungsmöglichkeiten von ChatGPT und vergleichbaren Modellen u. a. auf die Informationssuche und den Journalismus beleuchtet.

KI-Modelle wie ChatGPT sind bereits in der Lage, sprachlich anspruchsvolle Texte anhand unstrukturierter Daten zu verfassen. Im Journalismus können Redaktionen auf diese Weise Zeit und Kosten einsparen und auch kleinere Zielgruppen erschließen. Allerdings bewertet die Studie die Qualität der automatisch erzeugten Texte als kritisch. Mehrere Praxisbeispiele hätten fachliche Fehler, erfundene Angaben oder Plagiate aufgewiesen. Beispielhaft wird u. a. vom „AI and Automation-Lab“ des Bayerischen Rundfunks berichtet, das mit GPT-3 experimentierte und zu dem Schluss gekommen sei, dass es einfacher und schneller sei, den ganzen Text selbst zu recherchieren und zu schreiben, statt den geschriebenen Text abzunehmen.

Ein großes Potenzial sieht die Studie in der Übersetzungsfähigkeit von künstlicher Intelligenz: Damit können Beiträge schnell in Fremdsprachen und leichter bzw. einfacher Sprache barrierearm aufbereitet werden. Perspektivisch verspricht auch die Möglichkeit, multimodale Daten durch Künstliche Intelligenz zu verarbeiten, große Chancen: so entstehen aus Text-, Ton- oder Bildbeiträgen andere Formate, wie beispielsweise aus einem Artikel ein Podcastbeitrag. Auch im Datenjournalismus ist Künstliche Intelligenz eine große Unterstützung, indem sie große, unstrukturierte Datensätze ordnet.

Doch wie werden journalistische Beiträge und andere Formate künftig online auffindbar sein, wenn Anfragen in Suchmaschinen nicht mehr wie bisher als Linklisten ausgegeben werden? Mit ChatGPT wird gerade das Dialogsystem erprobt: Auf eine Suchanfrage folgt eine ausformulierte Antwort. Für Anbieter:innen von Internetseiten ergibt sich damit das Risiko, dass User nicht mehr auf ihre Inhalte gelenkt werden. Damit würden Inhalteanbieter:innen Reichweite und bei Werbefinanzierung auch eine wichtige Einnahmequelle verlieren.

Auf Social-Media-Plattformen moderieren Systeme wie ChatGPT inzwischen Beiträge und nehmen Überprüfungen unangemessener Beiträge vor. Gleichzeitig kreieren diese Systeme manipulative Postings, die sich kaum noch von Beiträgen von Menschen unterscheiden lassen. Desinformationskampagnen lassen sich kostengünstig streuen. Die Studie kritisiert, dass hier kaum Gegenmaßnahmen ergriffen werden, um die missbräuchliche Nutzung entlarven und ausbremsen zu können.

Grundsätzlich sei ein Vertrauensverlust in demokratische Prozesse und den Diskurs durch die Anwendung von Künstlicher Intelligenz zu befürchten, so die Studie. Denn nun sei stets auch der Inhalt von Texten zu bewerten und nicht mehr nur die Form.

Artikel teilen

Seite Drucken

Ansprechpartner:in
Dr. Christina Oelke

Stellvertretende Justiziarin

Tel. 0049 (0)30 39 88 0 111

Lesen Sie jetzt
Veranstaltungen
Radiodays Europe 2025: Innovation und Trends der Audiobranche in Athen
Im Fokus der diesjährigen Radiodays Europe standen u. a. Programmentwicklung, Verbreitung, Vermarktung, Nachwuchsentwicklung, Podcasting und der Einsatz Künstlicher Intelligenz.
Medien und Gesellschaft
Aktuelle Studien: Big-Tech-Plattformen fördern extreme Positionen und beeinflussen so den politischen Diskurs
Soziale Medien fördern Desinformation, viele Menschen können diese nicht von Fakten unterscheiden: Mehrere Studien belegen den negativen Einfluss sozialer Medien auf den öffentlichen Diskurs.
Verband
Sonja Schwetje über RTL NORD und die Zukunft regionaler Berichterstattung
13.03.2025 - RTL Nord ist Mitglied im VAUNET und Teil des Fachbereichs Fernsehen und Multimedia. Sonja Schwetje, Geschäftsführerin der RTL Nord GmbH, hat sich Zeit für ein Interview genommen.
Mehr Laden
Consent-Management-Plattform von Real Cookie Banner

VAU+

Diese Seite ist exklusiv für
unsere Mitglieder

Bitte loggen Sie sich ein oder erstellen Sie ein Nutzerkonto.