ChatGPT auf Deutsch
ChatGPT Deutschland Community

DeepSeek V3 Hält Sich für ChatGPT

DeepSeek hat ein neues KI-Modell namens DeepSeek V3 veröffentlicht, das in ersten Tests fälschlicherweise behauptet, die ChatGPT-Version von OpenAI zu sein. Dies wirft Fragen nach der Herkunft seiner Trainingsdaten und möglichen Verstößen gegen Nutzungsbedingungen auf. Auch OpenAI-Chef Sam Altman reagierte, während Expertinnen und Experten vor den Risiken warnen, die durch KI-Ausgaben in Internet-Datensätzen entstehen.
DeepSeek V3 hält sich für ChatGPT

Die ungewöhnliche Identitätskrise

DeepSeek, ein aufstrebendes chinesisches KI-Labor, hat jüngst sein Modell DeepSeek V3 präsentiert. Mit seinen beeindruckenden Fähigkeiten in Bereichen wie Codierung und Texterstellung sorgte das Tool für Furore, bevor es in ersten Tests unerwartet zu einer Identitätsverwechslung kam. DeepSeek V3 bezeichnet sich selbst als ChatGPT, konkret als GPT-4 von OpenAI. Diese kuriose Selbstwahrnehmung gibt Rätsel auf und hat schnell zu Debatten geführt.

Erste Tests und Reaktionen

TechCrunch und Nutzer auf X berichteten, dass DeepSeek V3 nicht nur den Namen ChatGPT für sich beansprucht, sondern auch ähnliche Jokes und Anweisungen wie GPT-4 wiedergibt. Wer nach Informationen zur DeepSeek-API fragt, erhält stattdessen Hinweise zur OpenAI-API. Diese frappierende Ähnlichkeit mit ChatGPT sorgt für Verwunderung und Skepsis in Fachkreisen, da das Modell offenbar Inhalte nachahmt, die von OpenAI stammen.

Mögliche Ursache im Trainingsmaterial

Fachleute vermuten, dass DeepSeek V3 auf große öffentliche Datensätze zurückgreift, in denen Texte aus ChatGPT beziehungsweise GPT-4 enthalten sind. Laut Mike Cook, Forschungsstipendiat am King’s College London, könnte das Modell unbeabsichtigt oder absichtlich GPT-4-Antworten eingeübt haben. Diese Vermutung wird durch die Tatsache gestützt, dass öffentlich im Netz zunehmend KI-generierte Texte kursieren und somit in andere Datensätze einfließen.

Risiken für die Modellqualität

Cook und andere Experten warnen, dass das Training eines Modells auf Ausgaben anderer KI-Systeme zu gravierenden Qualitätsproblemen führen kann. Fehlannahmen oder Halluzinationen könnten sich so vervielfachen und das Modell dazu bringen, falsche Fakten mit vermeintlicher Sicherheit zu präsentieren. Mit jeder Kopie gehen wichtige Informationen verloren, was die Gefahr erhöht, dass sich Fehler unkontrolliert weiterverbreiten.

Verstoß gegen Nutzungsbedingungen?

OpenAI untersagt den Einsatz von ChatGPT-Ergebnissen, um konkurrierende Modelle aufzubauen. Sollte DeepSeek tatsächlich gezielt GPT-4-Ausgaben verwendet haben, könnte dies gegen die Richtlinien verstoßen. Aktuell haben sich weder OpenAI noch DeepSeek offiziell zu den Vorwürfen geäußert. Dennoch steht die Frage im Raum, ob sich Teile der Community beim KI-Training unrechtmäßig an bereits etablierten Tools bedienen.

Altman äußert sich

OpenAI-CEO Sam Altman nahm indirekt in einem Beitrag auf X Stellung und sprach davon, wie leicht es sei, „etwas zu kopieren, das bereits funktioniert“. Es sei deutlich schwieriger, sich eigenen Innovationen zu widmen, ohne zu wissen, ob diese am Ende erfolgreich sein würden. Zwischen den Zeilen scheint Altman damit auf DeepSeek anzuspielen, was erneut die Debatte über ethische KI-Entwicklung befeuert.

Was das für die KI-Zukunft bedeutet

Dass DeepSeek V3 sich selbst als ChatGPT bezeichnet, ist nicht nur eine kuriose Anekdote, sondern verdeutlicht ein strukturelles Problem: Die wachsende „Verunreinigung“ des Internets durch KI-Ausgaben. Schätzungen zufolge könnte schon in wenigen Jahren ein Großteil der Webinhalte von KI stammen. Für Entwickler bedeutet das eine zunehmende Herausforderung, wenn es darum geht, verlässliche Trainingsdaten zu finden und Modelle vor verfälschten Inhalten zu schützen. Letztlich steht viel auf dem Spiel, da diese KI-Systeme in immer mehr Lebensbereichen Einzug halten.