Studie: Textstrukturen sind kaum als Mittel gegen Falschinformationen geeignet
Datum: 31. Juli 2023
Autor: Erwin König
Kategorien: Studien

Fake News und verwandte Phänomene wie Hass- und Desinformationskampagnen sind inzwischen zu einem hartnäckigen Problem unserer Medienwelt geworden; sie beeinflussen so auch direkt unser gesellschaftliches Zusammenleben. Die seit einigen Jahren zu beobachtende politische und gesellschaftliche Spaltung in vielen Ländern basiert zu einem nicht unerheblichen Teil auf solchen Falsch- und Desinformationen, da offensichtlich viele Menschen aus verschiedenen Gründen solche Inhalte nicht erkennen können oder wollen. Um solche Falschinformationen und Verschwörungstheorien zu bekämpfen, wird bisher hauptsächlich auf die Eigenverantwortung der Bürgerinnen und Bürger gesetzt. Zunehmend wird aber auch versucht bestehende Gesetze anzuwenden, das heißt rechtliche Mittel zu nutzen, um besonders die Plattformbetreiber von sozialen Medien in die Verantwortung zu nehmen. Ein anderer Ansatz sind sogenannte Faktenchecks, die eine Zeitlang besonders in den sogenannten Mainstreammedien genutzt wurden. Auch die Bibliotheks- und Informationswelt versucht einen Beitrag zur Eindämmung von Falschinformationen zu leisten. Dies geschieht durch Aufklärung, besonders durch die Vermittlung von Informationskompetenz, um diese schädlichen Entwicklungen zu minimieren. Ein täglicher Blick in die Online-Kommentarspalten von Online-Medien oder den Beiträgen in sozialen Medien zeigt jedoch, dass die Verbreitung von Fake News und anderen fragwürdigen Inhalten – trotz der zahlreichen Initiativen und Bemühungen –, bisher kaum signifikant eingedämmt werden konnte. Und nun droht mit den neuen Möglichkeiten der KI eine weitere Eskalierung an Fake News. Sprachlich gut formulierte Falschinformationen können mittels KI praktisch unbeschränkt und automatisiert produziert werden. In Zukunft werden uns aber nicht nur Falschinformationen in Textinformationen noch häufiger begegnen, sondern verstärkt können auch verblüffend echt wirkende Fake-Videos und -Fotografien erstellt werden. Somit dürfte sich bezüglich Falschinformationen auch in naher Zukunft kaum etwas ändern, ganz im Gegenteil. Die Frage lautet daher, ob es nicht doch wirksamere Methoden gibt abseits der oben genannten Ansätze, um wirksam etwas gegen die massenhafte Verbreitung von Falschinformationen zu unternehmen. Eine im Wissenschaftsjournal „British Journal of Health Psychology“ publizierte Studie1 geht der Frage nach, ob inhaltliche Aspekte wichtiger sind oder bestimmte Textstrukturen, wie sie in der Kommunikationsforschung präferiert werden, um Fake News widerlegen zu können.

...

Um den Artikel in voller Länge lesen zu können, benötigen Sie ein Abo. Jetzt Abo abschließen oder mit bestehendem Konto anmelden!

Mehr zum Thema:

ChatGPT liefert häufig ungenaue Quellenangaben für Verlagsinhalte

Eine Studie des Tow Center for Digital Journalism an der Columbia University in New York hat untersucht, wie der KI-Chatbot ChatGPT mit Quellenangaben und Referenzierung von Verlagsinhalten umgeht. Dabei wurden zahlreiche Fälle aufgedeckt, in denen ChatGPT die Quelle...