ChatGPT auf Deutsch
ChatGPT Deutschland Community

ChatGPT-Zitate Sorgen Für Unruhe Bei Verlagen

Eine neue Studie des Tow Centers for Digital Journalism beleuchtet die unzuverlässige Zitationspraxis von ChatGPT. Die Ergebnisse werfen ernste Fragen zur Genauigkeit und Transparenz der KI-generierten Quellenangaben auf und zeigen, dass selbst Verlage mit Lizenzvereinbarungen nicht vor Fehlinterpretationen geschützt sind.
ChatGPT-Zitate sorgen für Unruhe bei Verlagen

Ergebnisse der Untersuchung

Das Tow Center for Digital Journalism hat die Fähigkeit von ChatGPT untersucht, Quellen korrekt zu zitieren. Dabei wurde festgestellt, dass die KI oft ungenaue oder völlig falsche Angaben macht. Die Untersuchung umfasste 200 Zitate aus Artikeln von 20 verschiedenen Verlagen, darunter auch prominente Namen wie The New York Times und The Financial Times. Trotz bestehender Lizenzvereinbarungen waren die Zitate häufig fehlerhaft.

Fehlende Verlässlichkeit

Die Studie zeigt, dass ChatGPT in 153 von 200 Fällen falsche oder nur teilweise korrekte Quellenangaben lieferte. Nur in sieben Fällen räumte die KI ein, dass sie keine exakte Antwort geben konnte. Stattdessen wurden oft falsche Informationen mit großer Zuversicht präsentiert, was die Verlässlichkeit der Antworten erheblich infrage stellt.

Problem der Transparenz

Ein weiteres Problem ist die mangelnde Transparenz über die Zuverlässigkeit der Antworten. Im Gegensatz zu Suchmaschinen wie Google oder Bing gibt ChatGPT selten an, wenn es eine Quelle nicht findet. Stattdessen wird auf erfundene Informationen zurückgegriffen, was die Nutzer in die Irre führen kann. Für Verlage besteht dadurch das Risiko, dass ihre Inhalte falsch dargestellt werden.

Plagiatsförderung durch die KI

Die Studie beschreibt auch Fälle, in denen ChatGPT Inhalte von Websites zitiert hat, die wiederum plagiierten Content ohne Quellenangabe veröffentlicht hatten. Besonders problematisch ist dies, wenn die KI nicht zwischen Original und kopiertem Material unterscheiden kann. Dies wirft ernste Fragen zur Fähigkeit von OpenAI auf, die Authentizität seiner Datenquellen zu überprüfen.

Unklarheit trotz Lizenzvereinbarungen

Selbst Verlage, die Lizenzvereinbarungen mit OpenAI abgeschlossen haben, profitieren offenbar nicht von einer verbesserten Genauigkeit der Zitate. Dies deutet darauf hin, dass die Zulassung von OpenAIs Crawling-Bot keine Garantie für korrekte Quellenangaben bietet. Die Technologie scheint journalistische Inhalte als „dekontextualisierte Daten“ zu behandeln, ohne den Entstehungshintergrund angemessen zu berücksichtigen.

Unvorhersehbare Ergebnisse

Die Studie zeigt, dass ChatGPT bei wiederholten Anfragen häufig unterschiedliche Antworten gibt. Diese Inkonstanz ist typisch für generative KI, doch im Kontext von Quellenangaben ist sie problematisch. Nutzer können dadurch nicht einschätzen, welche Informationen korrekt und vertrauenswürdig sind.

Fazit der Forscher

Die Autoren der Studie kommen zu dem Schluss, dass Verlage derzeit nur begrenzte Kontrolle über die Verwendung ihrer Inhalte durch ChatGPT haben. Weder Lizenzvereinbarungen noch das Blockieren des OpenAI-Crawlers bieten ausreichenden Schutz vor falschen Darstellungen. OpenAI weist die Kritik jedoch zurück und betont, dass die Studie eine „untypische Prüfung“ der KI darstelle. Dennoch unterstreichen die Ergebnisse den dringenden Bedarf an Verbesserungen bei der Genauigkeit und Transparenz von KI-generierten Inhalten.

Ausblick auf ChatGPT in Deutschland

Die Ergebnisse der Studie werfen wichtige Fragen zur Nutzung von KI-Tools wie ChatGPT in Deutschland auf, insbesondere im Hinblick auf ihre Integration in journalistische und redaktionelle Prozesse. Während ChatGPT großes Potenzial zur Unterstützung von Recherche und Inhaltsgenerierung bietet, zeigt die Untersuchung deutlich, dass Verlage und Nutzer sich der Risiken bewusst sein und Maßnahmen zur Sicherstellung der Datenqualität und Genauigkeit ergreifen müssen.