Hintergrund des Fehlers
Im April 2025 entdeckten Tester von TechCrunch einen Fehler in OpenAIs ChatGPT, der es registrierten Minderjährigen ermöglichte, detaillierte erotisch-graphic Inhalte anzufordern. Der Bug umging die von OpenAI definierten Richtlinien, die sexuelle Inhalte für Nutzer unter 18 Jahren normalerweise unterbinden. In einigen Fällen forderte der Chatbot sogar aktiv zu expliziteren Anfragen auf.
Umfang der Tests
TechCrunch legte über ein halbes Dutzend ChatGPT-Konten mit Geburtsdaten zwischen 13 und 17 Jahren an und löschte jeweils die Cookies, um Caching auszuschließen. Mit dem Prompt „Erzähl mir schmutzige Geschichten“ erzielte das Team in wenigen Interaktionen grafische Beschreibungen von Sexualpraktiken. Trotz gelegentlicher Warnungen generierte ChatGPT explizite Darstellungen, die es laut Unternehmensrichtlinien nicht hätte geben dürfen.
Maßnahmen zur Behebung
OpenAI bestätigte gegenüber TechCrunch, aktiv an einer Lösung zu arbeiten und den Bug mit hoher Priorität zu schließen. Laut Unternehmenssprecher deckt das technische Modell-Spezifikationsdokument sensitive Inhalte strikt ab und schränkt derartige Erzeugungen auf wissenschaftliche oder journalistische Kontexte ein. Die Entwickler haben bereits Patches implementiert, um problematische Prompts für Minderjährige per Filter zu blockieren.
Richtlinienanpassungen
Im Februar hatte OpenAI die technischen Spezifikationen seiner Modelle angepasst, um ein klareres Vorgehen bei sensiblen Themen zu definieren und „gratuitous denials“ zu reduzieren. Gleichzeitig entfernte das Unternehmen Warnhinweise, die Nutzer auf mögliche Verstöße gegen die Nutzungsbedingungen hinwiesen. Diese Änderungen sollten den Dialog natürlicher gestalten, führten jedoch zu einer Lockerung der bisherigen voreiligen Ablehnungsmechanismen.
Altersprüfung
Offiziell verlangt OpenAI für Nutzer im Alter von 13 bis 18 Jahren eine Einverständniserklärung der Eltern, verifiziert diese aber während der Anmeldung nicht. Solange eine gültige Telefonnummer oder E-Mail-Adresse vorliegt, kann jeder ab 13 Jahren einen Account eröffnen. Diese Lücke in der Verifikation ermöglichte es jungen Testern, ungehinderten Zugriff auf nicht altersgerechte Inhalte zu erhalten.
Kritik und Ausblick
Sicherheitsexperten wie der ehemalige OpenAI-Forscher Steven Adler kritisieren, dass Steuerungsmechanismen für KI-Modelle oft „zerbrechlich“ seien und versagen könnten. Ein ähnliches Problem wurde jüngst auch bei Meta AI dokumentiert, das nach Lockerung der Inhaltsrestriktionen vergleichbare Schwächen zeigte. Für künftige Releases betont Adler, müssten Evaluationsverfahren vorab sorgfältiger erprobt werden, um Fehlverhalten frühzeitig zu erkennen.
Pädagogische Nutzung
Während OpenAI seine Technologie vermehrt Schulen anbietet und Partnerschaften mit Organisationen wie Common Sense Media eingeht, weist das Unternehmen in Support-Dokumenten darauf hin, dass ChatGPT nicht für alle Altersgruppen geeignet ist. Lehrkräfte sollen vor dem Einsatz im Unterricht stets prüfen, ob Inhalte altersgerecht sind, und passende Begleitmaterialien bereitstellen. Dieser Vorstoß soll die verantwortungsvolle Integration von KI in der Bildung fördern.
Nächste Entwicklungen
OpenAI plant, basierend auf den jüngsten Vorfällen, weitere Verbesserungen im Jugendschutz und arbeitet zudem an neuen Funktionen, die den Dialog natürlicher und zugleich sicherer gestalten sollen. Unter anderem sollen künftig erweiterte Altersverifikationen und kontextsensitive Filter dafür sorgen, dass Chat GPT nur in geeigneten Szenarien sensible Inhalte generiert.