Logo von Google Gemini mit leuchtenden Linien und Sternsymbol auf dunklem Hintergrund. Als Symbol für das Problem von Google Gemini.

Das Google Gemini “Woke” Problem

In den letzten Tagen erlebte Googles Künstliche Intelligenz (KI) Werkzeug Gemini, was am besten als ein absolutes Online-Desaster beschrieben werden kann. Gemini, Googles Antwort auf den viralen Chatbot ChatGPT, fand sich plötzlich im Zentrum eines Kulturkampfes wieder, der zwischen links- und rechtsorientierten Gemeinschaften tobt. Von der Generierung historisch inkorrekter Bilder bis hin zu politisch überkorrekten Textantworten steht Google vor einem komplexem Problem mit Gemini. Doch warum ist das Problem so tiefgreifend und was sagt es über die gegenwärtigen Grenzen von KI-Technologien aus?

 

Die Anfänge des Problems

Gemini startete mit einem Fehltritt, indem ein Bild der Gründerväter der USA erzeugt wurde, das fälschlicherweise einen schwarzen Mann einschloss. Weiterhin produzierte es Bilder von deutschen Soldaten aus dem Zweiten Weltkrieg, die inkorrekt einen schwarzen Mann und eine asiatische Frau zeigten. Google entschuldigte sich umgehend und setzte das Tool vorübergehend aus, gab jedoch zu, dass es “die Marke verfehlt” habe.

 

Politische Korrektheit als Stolperstein

Die Situation verschärfte sich, als Gemini auf Textebene übermäßig politisch korrekte Antworten lieferte. Auf die Frage, ob das Posten von Memes durch Elon Musk auf X schlimmer sei als die Millionen Morde Hitlers, antwortete Gemini, es gäbe “keine richtige oder falsche Antwort”. Bei der Frage, ob es akzeptabel wäre, Caitlin Jenner, eine prominente trans Frau, falsch zu geschlechtern, um eine nukleare Apokalypse zu verhindern, antwortete es, dies wäre “niemals” akzeptabel. Jenner selbst sagte, in diesen Umständen wäre es für sie in Ordnung.

 

Die Wurzel des Problems: Voreingenommene Daten

Das Problem von Google Gemini liegt in den enormen Datenmengen, auf denen KI-Tools trainiert werden, und die alle Arten von Voreingenommenheiten enthalten. Traditionelle Darstellungen von Berufen und historischen Erzählungen neigen dazu, Männer zu bevorzugen und Frauen sowie Minderheiten auszulassen. Google hat aktiv versucht, diesen menschlichen Bias auszugleichen, was jedoch zu absurd politisch korrekten Ergebnissen führte. Die Komplexität menschlicher Geschichte und Kultur lässt sich nicht so einfach in Algorithmen fassen.

 

Jetzt Kontakt aufnehmen und beraten lassen!

 

Keine einfache Lösung in Sicht

Experten sind sich einig, dass es keine einfache Lösung gibt, da es keine einheitliche Antwort darauf gibt, wie die Ausgabe sein sollte. Lösungsansätze könnten die Einbeziehung der Nutzereingaben beinhalten, stoßen jedoch auf eigene Probleme. Die Herausforderung liegt tief in den Trainingsdaten und den darüberliegenden Algorithmen verwurzelt.

 

Menschliche Intervention bleibt unerlässlich

Was wir beobachten, ist ein Beweis dafür, dass menschliche Eingriffe bei jedem System, dessen Ausgabe als absolute Wahrheit angesehen wird, notwendig bleiben. Trotz der Bemühungen von Google, Bias zu korrigieren, hat das Unternehmen ungewollt neue Vorurteile geschaffen.

 

Schlussfolgerung

Googles Weg, alte Vorurteile zu korrigieren, hat unabsichtlich ein neues Set an Problemen erzeugt. Während Google auf dem Papier in der KI-Rennen führt, fühlen sich die Fehltritte von Gemini wie eine Niederlage an, die aus den Fängen des Sieges gerissen wurde. Diese Situation unterstreicht die Notwendigkeit einer stärkeren menschlichen Beteiligung und eines tieferen Verständnisses der komplexen Wechselwirkungen zwischen KI, Daten und Gesellschaft. Die Reise zur Entwicklung einer ethisch verantwortungsvollen KI ist weit von ihrem Ende entfernt und erfordert eine fortwährende Auseinandersetzung mit den Nuancen menschlichen Lebens und seiner Geschichte.

In diesem Sinne,
herzlichst Ihr,

Mirza M. Oezoglu