Unerwarteter Website-Ausfall durch OpenAI-Bot
Am Samstag erlitt die E-Commerce-Seite von Triplegangers einen schwerwiegenden Ausfall. Der erste Verdacht auf einen DDoS-Angriff wurde schnell widerlegt: Ein Bot von OpenAI hatte die Website massenhaft durchsucht und war für die Überlastung verantwortlich.
Enorme Datenmengen heruntergeladen
Triplegangers bietet über 65.000 digitale Produkte an, die jeweils mehrere hochauflösende Bilder enthalten. Der Bot versuchte, die gesamten Inhalte herunterzuladen, was zu einer enormen Anzahl von Anfragen und schließlich zum Serverausfall führte.
Nutzung zahlreicher IP-Adressen
Besonders problematisch war, dass der OpenAI-Bot rund 600 verschiedene IP-Adressen verwendete, um das Crawling durchzuführen. Dadurch wurde es schwieriger, die Aktivitäten rechtzeitig zu erkennen und zu blockieren.
Lückenhafte Schutzmechanismen
Obwohl Triplegangers in seinen Nutzungsbedingungen das automatische Scraping untersagt, genügte dies nicht, um den Bot zu stoppen. Laut OpenAI erfordert das Blockieren ihrer Bots eine spezielle Konfiguration der robots.txt-Datei, die bei Triplegangers anfangs fehlte.
Rechtslage problematisch
Da Triplegangers reale Personen für seine 3D-Modelle scannt, spielt der Datenschutz eine zentrale Rolle. Laut der DSGVO dürfen persönliche Daten ohne ausdrückliche Zustimmung nicht genutzt werden. Tomchuk kritisiert, dass KI-Firmen sich bislang weitgehend außerhalb klarer gesetzlicher Regelungen bewegen.
Hohe Zusatzkosten erwartet
Neben dem Ausfall rechnet das Unternehmen mit einer deutlichen Erhöhung der Serverkosten. Die intensive Nutzung der Ressourcen durch den OpenAI-Bot wird sich in einer höheren Abrechnung für die Cloud-Dienste niederschlagen.
Keine Reaktion von OpenAI
Triplegangers hat bisher keine Möglichkeit gefunden, OpenAI zu kontaktieren, um den Vorfall zu melden und eine Löschung der möglicherweise kopierten Inhalte zu beantragen. Auch Anfragen von Medien wurden von OpenAI bislang nicht beantwortet.
Maßnahmen zum Schutz
Um künftige Vorfälle zu vermeiden, hat Triplegangers seine robots.txt-Datei aktualisiert und Schutzmaßnahmen mit Cloudflare eingeführt. Weitere bekannte Crawler wie Barkrowler und Bytespider wurden ebenfalls blockiert.
Scraping durch KI auf dem Vormarsch
Eine Studie des Unternehmens DoubleVerify zeigt, dass automatisiertes Scraping im Jahr 2024 um 86 % zugenommen hat. Die meisten betroffenen Websites bemerken solche Aktivitäten gar nicht, da die Crawler oft verdeckt agieren.
Forderung nach klaren Regeln für KI-Bots
Der Vorfall zeigt deutlich, wie groß die Herausforderung durch unkontrolliertes Scraping für kleine und mittelständische Unternehmen ist. Während KI-Entwickler wie OpenAI von der Datenfülle im Internet profitieren, bleiben betroffene Firmen oft auf den Kosten und dem Schaden sitzen. Tomchuk betont, dass dringend einheitliche Regeln und Kontrollmechanismen eingeführt werden müssen, um solche Vorfälle in Zukunft zu verhindern. Insbesondere europäische Firmen sehen sich aufgrund strenger Datenschutzgesetze wie der DSGVO in einer schwierigen Position, wenn Bots ihre Inhalte ohne Genehmigung abrufen. Zudem fordert er, dass OpenAI benutzerfreundliche Tools bereitstellt, mit denen Betreiber ihre Inhalte schützen können, ähnlich wie bei ChatGPT auf Deutsch, wo Nutzern einfache Optionen zur Verwaltung ihrer Daten gegeben werden.