
News & Trends
Wegen KI: «Clair Obscur: Expedition 33» doch kein Indie Game des Jahres
von Michelle Brändle

Im Vereinigten Königreich sorgt ein Sicherheitsbericht der West Midlands Police für massive Kritik. Nun kommt heraus, dass er auf Falschaussagen von Microsofts KI «Copilot» basiert.
Ein perfektes Beispiel, warum du Angaben einer KI nicht ungeprüft übernehmen solltest, liefert gerade das Vereinigte Königreich. Dort schlägt der Fall eines Fußballspiels der UEFA-Europa-League am 6. November in Birmingham hohe Wellen: Bereits im Oktober hatte die zuständige Polizeibehörde bekanntgegeben, für das Spiel des englischen Vereins Aston Villa gegen den israelischen Club Maccabi Tel Aviv keine Gästefans zuzulassen.
Grundlage für die Entscheidung war ein interner Bericht der West Midlands Police und des Stadtrats von Birmingham, der das Match als Hochrisikospiel einstufte. Jetzt kam heraus, dass für die Risikoanalyse Microsofts Chatbot Copilot herangezogen worden war – der jedoch falsche Informationen geliefert hatte. Copilot führte unter anderem Ausschreitungen bei einem früheren Spiel an, das es nie gab.
Zuvor waren die Verantwortlichen, allen voran der Chef der West Midlands Police, Craig Guildford, wochenlang für den Ausschluss der israelischen Fans kritisiert worden. Da Antisemitismus-Vorwürfe im Raum stehen, zog der Fall von Beginn an auch in der britischen Politik weite Kreise: Guildford und weitere Behördenangehörige mussten mehrfach im Parlament Rede und Antwort stehen.
Dort hatte Guildford bislang abgestritten, dass KI für den Bericht genutzt wurde und stattdessen eine fehlerhafte Google-Suche angeführt. Im Dezember hatte seine Behörde sogar angegeben, dass die interne Nutzung von KI-Tools gar nicht erlaubt sei. Jetzt räumte Guildford die Beteiligung von Copilot ein und entschuldigte sich für die vergangenen Falschinformationen. Hochrangige Politiker fordern seinen Rücktritt.
Die offizielle Mitteilung zur Nichtzulassung von Gästefans nimmt auf Geheimberichte sowie gewalttätige Ausschreitungen von Maccabi-Fans bei einem Spiel 2024 in Amsterdam Bezug. Dem widerspricht in einem Schreiben jedoch die niederländische Polizei.
Die Geheimberichte enthalten offenbar Hinweise auf ein früheres Spiel von Maccabi Tel Aviv versus West Ham United – das es jedoch nie gab. Wie es ein fiktives Match in eine offizielle Risikoanalyse schaffen kann und warum solche Angaben nicht geprüft werden, darauf konzentrieren sich seitdem die Ermittlungen zur Aufarbeitung des Falls.
Unter der Eingabemaske des Chatbots Copilot ist zu lesen: «Copilot ist eine KI und kann Fehler machen». Der Vorfall veranschaulicht auf drastische Weise die Risiken moderner Sprachmodelle. KI-Chatbots generieren ihre Antworten auf Basis von Wahrscheinlichkeiten, nicht, weil sie die Zusammenhänge verstehen. Aktuelle Studien – etwa diese – belegen, dass sich große Sprachmodelle einfach systematisch in die Irre leiten lassen.
Copilot könnte Muster aus früheren Spielen oder Nachrichten kombiniert und daraus ein fiktives Szenario erstellt haben. Das Phänomen, glaubhafte Aussagen zu erfinden, ist als KI-Halluzination bekannt.
Bei Anwendungsszenarien mit sensiblen Daten oder weitreichenden Konsequenzen ist es daher unbedingt erforderlich, die generierten Texte auf Richtigkeit gegenzuprüfen.
Fühlt sich vor dem Gaming-PC genauso zu Hause wie in der Hängematte im Garten. Mag unter anderem das römische Kaiserreich, Containerschiffe und Science-Fiction-Bücher. Spürt vor allem News aus dem IT-Bereich und Smart Things auf.
Vom neuen iPhone bis zur Auferstehung der Mode aus den 80er-Jahren. Die Redaktion ordnet ein.
Alle anzeigen