Künstliche Intelligenz kann Beeindruckendes leisten, doch manchmal sorgt sie für skurrile oder teure Fehler. Diese Beispiele zeigen, warum Vorsicht, Kontrolle und gesunder Menschenverstand im Umgang mit KI unverzichtbar sind.
5 KI-Fails – echte Fälle
1) „Alexa, bestell … ups!“
2017 bestellte ein Kind per Sprachbefehl über Amazons Echo ein Puppenhaus und Kekse. Als ein TV-Moderator die Szene nacherzählte und im Studio laut sagte „Alexa, bestell mir ein Puppenhaus“, lösten auch die Geräte der Zuschauenden zu Hause Bestellvorgänge aus. Ursache war die automatische Reaktion auf Aktivierungswörter, auch wenn sie nur aus dem Fernseher kamen.
Lektion: Kritische Funktionen brauchen Schutzmechanismen wie Stimmprofile oder PINs.
2) Robotaxi im Frischbeton
Im August 2023 fuhr ein fahrerloses Auto des Unternehmens Cruise in San Francisco in eine abgesperrte Baustelle und blieb mit den Vorderrädern im noch feuchten Beton stecken. Offenbar griffen Sensoren, Karten und Logik für Baustellen nicht zuverlässig ineinander.
Lektion: Autonomie muss auch bei unvorhergesehenen Situationen robust funktionieren.
3) Bard blamiert sich in der Premiere
Bei der Premiere von Googles Chatbot Bard 2023 zeigte ein Demo-Video eine falsche Information: Das James-Webb-Teleskop habe die ersten Exoplanetenfotos aufgenommen. Fachleute stellten sofort klar, dass dies nicht stimmt, und die Panne wurde zu einem PR-Debakel.
Lektion: Sprachmodelle klingen überzeugend, können aber irren. Faktenchecks sind unverzichtbar, gerade bei öffentlichen Präsentationen.
4) Airline-Chatbot verspricht Geld zurück – und die Airline muss zahlen
Ein Chatbot von Air Canada erklärte einem Kunden, er könne rückwirkend einen Trauerfalltarif beantragen. Das war falsch. 2024 entschied ein kanadisches Tribunal, dass die Airline für Aussagen ihres Chatbots haftet, und sprach Schadenersatz zu.
Lektion: Unternehmen tragen Verantwortung für ihre KI-Assistenten. Unklare Haftung kann teuer werden.
5) Erfundene Urteile im Schriftsatz
Zwei New Yorker Anwälte reichten 2023 ein Dokument ein, das sich auf frei erfundene Präzedenzfälle stützte, erzeugt von einem Chatbot. Das Gericht verhängte Sanktionen.
Lektion: Generative KI ersetzt keine Rechtsrecherche. Wer zitiert, muss Quellen prüfen.