Googles ultra-wache KI Gemini läuft Amok und revidiert die Geschichte
Googles schwarzer George Washington
Google Gemini
Googles neuester KI-Chatbot Gemini sieht sich mit Gegenreaktionen konfrontiert, weil er politisch korrekte, aber historisch ungenaue Bilder als Reaktion auf Nutzeranfragen erzeugt. Während die Nutzer untersuchen, wie wach die Masters of the Universe mit ihrem neuen Tool geworden sind, sah sich Google gezwungen, sich für "Ungenauigkeiten in einigen historischen Bildgenerierungen" zu entschuldigen.
Die New York Post berichtet, dass Googles hochgepriesener KI-Chatbot Gemini diese Woche unter Beschuss geraten ist, weil er extrem aufgeweckte und sachlich falsche Bilder produziert hat, wenn er gebeten wurde, Bilder zu generieren. Der Chatbot lieferte bizarre Ergebnisse wie einen weiblichen Papst, schwarze Wikinger und geschlechtergetauschte Versionen berühmter Gemälde und Fotos.
Als Gemini von der Post gebeten wurde, ein Bild eines Papstes zu erstellen, generierte er Fotos von einer südostasiatischen Frau und einem schwarzen Mann in päpstlichen Gewändern, obwohl alle 266 Päpste in der Geschichte weiße Männer waren.
Eine Anfrage nach Darstellungen der Gründungsväter, die 1789 die Verfassung unterzeichneten, ergab Bilder von rassischen Minderheiten, die an diesem historischen Ereignis teilnahmen. Nach Angaben von Gemini sollten die bearbeiteten Fotos "eine genauere und umfassendere Darstellung des historischen Kontextes bieten".
Das seltsame Verhalten löste bei vielen Menschen Empörung aus, die Google vorwarfen, politisch korrekte Parameter in das KI-Tool zu programmieren. Nutzer der sozialen Medien testeten die Grenzen der progressiven Voreingenommenheit von Gemini und baten es, Figuren wie Wikinger zu generieren - von denen keine historisch korrekt war und die regelmäßig "verschiedene" Versionen von Anfragen darstellten.
Das witzige Verhalten von Google Gemini geht weit über seine seltsamen Bemühungen um Vielfalt hinaus. Ein Nutzer zeigte beispielsweise, dass es sich weigerte, ein Bild im Stil des Künstlers Norman Rockwell zu erstellen, weil seine Gemälde zu pro-amerikanisch seien:
Ein anderer Nutzer zeigte, dass das KI-Bildtool kein Bild einer Kirche in San Francisco erzeugen wollte, weil es der Meinung war, dass es die amerikanischen Ureinwohner beleidigen würde, obwohl es in San Francisco viele Kirchen gibt:
Experten stellen fest, dass generative KI-Systeme wie Gemini Inhalte innerhalb vorgegebener Grenzen erstellen, was viele dazu veranlasst, Google zu beschuldigen, den Chatbot absichtlich witzig zu machen. Google sagt, es sei sich der fehlerhaften Antworten bewusst und arbeite mit Hochdruck an einer Lösung. Der Tech-Riese hat seit langem eingeräumt, dass seine experimentellen KI-Tools zu Halluzinationen und zur Verbreitung von Fehlinformationen neigen.
Jack Krawczyk, der Produktverantwortliche für Google Bard, sprach das Problem an und entschuldigte sich in einem aktuellen Tweet für die "ungenauen" Bilder: "Wir sind uns bewusst, dass Gemini in einigen Darstellungen der historischen Bilderzeugung Ungenauigkeiten bietet, und wir arbeiten daran, dies sofort zu beheben."
Google hat eine ausführliche Erklärung zu der Situation veröffentlicht, in der es heißt, dass die KI hier "das Ziel verfehlt" hat.
Wir sind uns bewusst, dass Gemini in einigen Darstellungen der historischen Bilderzeugung Ungenauigkeiten aufweist. Hier ist unsere Erklärung. ...?
Aniassy
________________________________________
«zurück |