Ergebnisse der Untersuchung
Das Tow Center for Digital Journalism hat die Fähigkeit von ChatGPT untersucht, Quellen korrekt zu zitieren. Dabei wurde festgestellt, dass die KI oft ungenaue oder völlig falsche Angaben macht. Die Untersuchung umfasste 200 Zitate aus Artikeln von 20 verschiedenen Verlagen, darunter auch prominente Namen wie The New York Times und The Financial Times. Trotz bestehender Lizenzvereinbarungen waren die Zitate häufig fehlerhaft.
Fehlende Verlässlichkeit
Die Studie zeigt, dass ChatGPT in 153 von 200 Fällen falsche oder nur teilweise korrekte Quellenangaben lieferte. Nur in sieben Fällen räumte die KI ein, dass sie keine exakte Antwort geben konnte. Stattdessen wurden oft falsche Informationen mit großer Zuversicht präsentiert, was die Verlässlichkeit der Antworten erheblich infrage stellt.
Problem der Transparenz
Ein weiteres Problem ist die mangelnde Transparenz über die Zuverlässigkeit der Antworten. Im Gegensatz zu Suchmaschinen wie Google oder Bing gibt ChatGPT selten an, wenn es eine Quelle nicht findet. Stattdessen wird auf erfundene Informationen zurückgegriffen, was die Nutzer in die Irre führen kann. Für Verlage besteht dadurch das Risiko, dass ihre Inhalte falsch dargestellt werden.
Plagiatsförderung durch die KI
Die Studie beschreibt auch Fälle, in denen ChatGPT Inhalte von Websites zitiert hat, die wiederum plagiierten Content ohne Quellenangabe veröffentlicht hatten. Besonders problematisch ist dies, wenn die KI nicht zwischen Original und kopiertem Material unterscheiden kann. Dies wirft ernste Fragen zur Fähigkeit von OpenAI auf, die Authentizität seiner Datenquellen zu überprüfen.
Unklarheit trotz Lizenzvereinbarungen
Selbst Verlage, die Lizenzvereinbarungen mit OpenAI abgeschlossen haben, profitieren offenbar nicht von einer verbesserten Genauigkeit der Zitate. Dies deutet darauf hin, dass die Zulassung von OpenAIs Crawling-Bot keine Garantie für korrekte Quellenangaben bietet. Die Technologie scheint journalistische Inhalte als „dekontextualisierte Daten“ zu behandeln, ohne den Entstehungshintergrund angemessen zu berücksichtigen.
Unvorhersehbare Ergebnisse
Die Studie zeigt, dass ChatGPT bei wiederholten Anfragen häufig unterschiedliche Antworten gibt. Diese Inkonstanz ist typisch für generative KI, doch im Kontext von Quellenangaben ist sie problematisch. Nutzer können dadurch nicht einschätzen, welche Informationen korrekt und vertrauenswürdig sind.
Fazit der Forscher
Die Autoren der Studie kommen zu dem Schluss, dass Verlage derzeit nur begrenzte Kontrolle über die Verwendung ihrer Inhalte durch ChatGPT haben. Weder Lizenzvereinbarungen noch das Blockieren des OpenAI-Crawlers bieten ausreichenden Schutz vor falschen Darstellungen. OpenAI weist die Kritik jedoch zurück und betont, dass die Studie eine „untypische Prüfung“ der KI darstelle. Dennoch unterstreichen die Ergebnisse den dringenden Bedarf an Verbesserungen bei der Genauigkeit und Transparenz von KI-generierten Inhalten.
Ausblick auf ChatGPT in Deutschland
Die Ergebnisse der Studie werfen wichtige Fragen zur Nutzung von KI-Tools wie ChatGPT in Deutschland auf, insbesondere im Hinblick auf ihre Integration in journalistische und redaktionelle Prozesse. Während ChatGPT großes Potenzial zur Unterstützung von Recherche und Inhaltsgenerierung bietet, zeigt die Untersuchung deutlich, dass Verlage und Nutzer sich der Risiken bewusst sein und Maßnahmen zur Sicherstellung der Datenqualität und Genauigkeit ergreifen müssen.