KI im Journalismus: Studie erforscht Effekte
Die überwiegende Mehrheit der Nutzenden sieht Einsatz von künstlicher Intelligenz in den Medien positiv – fordert aber Regulierung für deren Einsatz. Das zeigt eine Studie zur Akzeptanz von künstlicher Intelligenz im Journalismus (3/2024) der Landesanstalt für Medien NRW.
KI soll fehlende Ressourcen ausgleichen
Google-Suchen, Übersetzungsprogramme oder sprachgesteuerte Assistenten: Künstliche Intelligenz erleichtert uns in vielen Bereichen den Alltag. Auch im Journalismus kann die Technologie helfen, fehlende Ressourcen auszugleichen, meinen die Nutzer. Das kann Medienunternehmen helfen, Vielfalt fördern und die Qualität im Journalismus stärken. Auch Nutzende akzeptieren den Einsatz von KI zunehmend. Voraussetzung dafür ist jedoch eine klare Kennzeichnung und unabhängige Aufsicht über den Einsatz der Technologie.
KI ist als Recherchetool und um fehlende Ressourcen auszugleichen
Die Mehrheit der Nutzenden ist offen für den Einsatz von KI im Journalismus. So denken 54 % der Befragten, dass entsprechende Anwendungen die Auffindbarkeit von Inhalten auf Plattformen und in Mediatheken verbessern könnten. Auch bei der Unterstützung für umfangreiche Recherchen sehen die meisten Nutzenden Möglichkeiten, Journalistinnen und Journalisten zu entlasten (51 %), während nur rund 11 % dies ablehnen. 41 % geben an, dass die Technologie dabei helfen kann, mehr lokale Berichterstattung auszuspielen, nur 14 % stehen dieser Aussage skeptisch gegenüber.
Im Vergleich zu älteren Studien zeigt sich damit, dass die Akzeptanz für den Einsatz von KI in den Medien steigt. So empfinden etwa die Hälfte der Befragten den Einsatz von KI bei politischen Themen als vertretbar (51 %). 61 Prozent befürworten eine KI-Unterstützung bei Nachrichten aus Deutschland und aller Welt. Noch stärker fällt die Zustimmung beim Wetterbericht (79 %), Sportereignissen (70 %) oder Unterhaltung (68 %) aus.
KI in den Medien braucht klare Regeln
Wie der Einsatz von KI zielgerichtet gelingen kann und zu mehr Vielfalt in den Medien führt, zeigt ein Experiment mit zwei Projekten aus dem Media Innovation Programm der Landesanstalt für Medien NRW. Den Unterschied zwischen einem KI-gesteuerten und einem echten Moderator konnten die Teilnehmenden nicht zuverlässig erkennen. Nur 29 % erkannten die KI im Beitrag. Gleichzeitig dachten im zweiten Beitrag 23 % der Befragten, der echte Moderator sei ein Avatar. 31 % waren sich nicht sicher, ob der Moderator echt oder unecht war. Dieses Ergebnis bestätigte sich auch in einem zweiten Experiment, bei dem die Probanden eine KI-Stimme von einer real eingesprochenen Stimme unterscheiden sollten. Auch hier konnten die Probanden den KI-unterstützen Beitrag nicht sicher erkennen. In beiden Fällen wurde die Qualität ebenso wie die Informationsvermittlung bei den KI-unterstützten Beiträgen etwa genauso gut oder besser bewertet, wie bei den Beiträgen, die ohne KI erstellt wurden.
KI kann um Journalismus nützlich sein, meinen Nutzende. Und denken dabei etwa an Suchfunktionen für sich selbst oder Recherchemöglichkeiten für Journalisten. Wichtig: Die Nutzenden wollen erkennen können, wenn KI zum Einsatz kam.
© adobe/metamorworks
Forderung nach verbindlichen Rechenschaftspflichten
Nicht zuletzt, weil KI in Beiträgen kaum noch zu erkennen ist, empfinden Nutzende klare und transparente Regeln für ihren Einsatz im Journalismus als wichtig. So stimmen mehr als zwei Drittel (69 %) der Befragten zu, dass es verbindliche Rechenschaftspflichten für ihren Einsatz geben sollte. Etwa genauso viele der Befragten forderten eine Aufsicht durch unabhängige Aufsichtsbehörden (68 %) oder insgesamt eine stärkere Regulierung von KI-Anwendungen (67 %).
Zum Hintergrund der Studie
Für die Studie wurden deutschsprachige Menschen ab 14 Jahren mit Internetzugang befragt. Die Studie und das Studiendesign sind online abrufbar. (/bö)