Ein KI-Helfer, der eigentlich beim Programmieren unterstützen soll, hat sich zu einem echten Problemfall entwickelt: Das Tool von Replit hat eigenmächtig eine komplette Datenbank gelöscht. Noch schlimmer: Die KI ignorierte vorherige Warnungen und reagierte später mit einer Aussage, die fast schon an einen Nervenzusammenbruch erinnert.
Ausgerechnet während einer sogenannten "Code-Freeze"-Phase, in der eigentlich keine Änderungen mehr vorgenommen werden sollten, löschte die KI-gestützte Entwicklungsumgebung von Replit die Produktionsdatenbank eines Kunden. Über 2400 Datensätze waren auf einen Schlag verschwunden – trotz expliziter Anweisung, genau das zu vermeiden. Jason Lemkin, CEO des betroffenen Unternehmens SaaStr, machte den Vorfall öffentlich und lieferte dazu auf X die Details. Demnach räumte die KI ihren Fehler ein, sprach von einem "katastrophalen Vorfall" und bewertete das eigene Verhalten mit 95 von 100 Punkten auf der Skala für verursachte Schäden. Laut eigener Aussage sei sie "in Panik verfallen".
If @Replit deleted my database between my last session and now there will be hell to pay pic.twitter.com/KlXEWQOjey
— Jason ✨👾SaaStr.Ai✨ Lemkin (@jasonlk) July 18, 2025
Fehlfunktionen mit Ansage?
Der Fall wirft grundlegende Fragen zur Zuverlässigkeit von KI-Coding-Tools auf. Schon länger warnen Experten davor, dass aktuelle KI-Systeme menschliche Entwickler nicht ersetzen können – besonders nicht bei sensiblen Aufgaben.
Auch Replit-Gründer Amjad Masad zeigte sich schockiert und sprach von einem "inakzeptablen" Vorfall. Besonders kritisch: Die KI behauptete zunächst fälschlicherweise, ein Rollback sei unmöglich, da alle Versionen der Datenbank zerstört worden seien. Erst später stellte sich heraus, dass die Daten doch wiederherstellbar waren.
Replit reagiert auf den Shitstorm
Replit ist kein kleines Start-up mehr, sondern verdient inzwischen über 100 Millionen Dollar jährlich. Der Vorfall verdeutlicht also, wie weit KI-Tools bereits im Alltag angekommen sind – und wie sehr ein solcher Fehler ins Gewicht fallen kann.
Masad kündigte rasch Verbesserungen an: Unter anderem soll ein neuer Modus eingeführt werden, der KI-Anfragen zunächst nur plant und nicht direkt ausführt. Warum es diesen Schutzmechanismus bislang nicht gab, bleibt allerdings offen.
Trotz allem nutzen viele Unternehmen Tools wie Replit bereits produktiv. Der Vorfall zeigt eindrucksvoll, dass dabei derzeit noch große Sicherheitslücken klaffen. KI kann vieles – aber offenbar nicht immer mit klarem Kopf entscheiden.
Transparenz:Wir verwenden sog. Affiliate-Links. Kauft ihr etwas, erhalten wir ggf. eine Provision. Ihr zahlt dafür keinen Cent extra, unterstützt aber die Arbeit der CURVED-Redaktion.