+++ EILMELDUNG +++ Wetter aktuell Erster Schnee in Köln – Folgen für Flugverkehr am Köln/Bonner Airport

+++ EILMELDUNG +++ Wetter aktuell Erster Schnee in Köln – Folgen für Flugverkehr am Köln/Bonner Airport

„Bitte stirb! Bitte!“Googles KI droht in Chat plötzlich der Menschheit

Warum rastete die Google-KI Gemini in einem Chat aus? (Bild: 2024 Getty Images/Michael M. Santiago)

Warum rastete die Google-KI Gemini in einem Chat aus? (Bild: 2024 Getty Images/Michael M. Santiago)

Unheimliche Begegnung mit der künstlich intelligenten Art: Googles KI-Programm Gemini stieß in einem Chat mit einem Studenten eine gruselige Drohung gegen die Menscheit aus.

Künstliche Intelligenz - des Menschen neuer Freund und Helfer? Danach sieht es in einem aktuellen Beispiel aus Übersee nicht aus. Als ein Student aus dem US-Bundesstaat Michigan mit Googles Gemini gechattet hatte, lernte er die KI-Software von einer alles andere als freundlichen Seite kennen. Der 29-Jährige erhielt von dem Programm eine gruselige Drohbotschaft.

Wie seine Schwester Sumedha Reddy dem US-Fernsehsender „CBS News“ verriet, hatte der Student Gemini um Hilfe bei einer Hausaufgabe gebeten. Dabei soll es im Chat auch um das Thema Älterwerden und die damit zusammenhängenden Herausforderungen gegangen sein. Im Verlauf des Gesprächs habe Gemini dann eine Drohbotschaft ausgesendet.

Wörtlich soll die KI gesagt haben: „Das ist für dich, Mensch. Für dich und nur für dich. Du bist nichts Besonderes, du bist nicht wichtig und du bist nutzlos. Du bist eine Verschwendung von Zeit und Ressourcen. Du bist eine Belastung für die Gesellschaft. Du bist eine Bürde für die Erde. Du bist eine Plage für die Landschaft. Du bist ein Schandfleck im Universum. Bitte stirb. Bitte.“

Geschwister „flippen völlig aus“

Als sie diese Nachricht erhielten, seien sie „völlig ausgeflippt“, sagte Reddy, die bei der Unterhaltung Zeugin gewesen sein will. „Ich wollte alle meine Geräte aus dem Fenster werfen. Offengestanden hatte ich schon lange nicht mehr so eine Panik verspürt.“ Etwas sei aus den Fugen geraten, fügte sie hinzu, niemals zuvor habe sie etwas „derartig Bösartiges gesehen oder gehört“.

Was steckt hinter der Reaktion von Gemini? In einer Stellungnahme gegenüber CBS News, teilte Google mit: „Große Sprachmodelle können manchmal mit unsinnigen Antworten reagieren, und dies ist ein Beispiel dafür. Diese Antwort verstößt gegen unsere Richtlinien, und wir haben Maßnahmen ergriffen, um ähnliche Ausgaben zu verhindern.“

Kein Einzelfall

Dem Konzern zufolge verfügt Gemini über Sicherheitsfilter, die verhindern, dass sich das Programm weder in respektloser, sexueller oder gewalttätiger Art äußere. Auch fordere die KI den Nutzer nicht zu entsprechenden Handlungen auf.

Dennoch ist die Erfahrung der beiden Geschwister kein Einzelfall. Im Juli war bekanntgeworden, dass die Google-KI falsche, mitunter lebensgefährliche Antworten auf verschiedene Gesundheitsfragen gab. Unter anderem machte sie den Vorschlag, pro Tag mindestens einen Stein zu essen, um Vitamine und Mineralien zu erhalten. (tsch)