Bbabo NET

Wissenschaft & Technologie Nachrichten

Geminis fehlerhafte KI-Rassenbilder gelten als Warnung vor Technologie

Austin – Für die Teilnehmer des richtungsweisenden Tech-Festivals hier wurde der Skandal, der ausbrach, nachdem Googles Gemini-Chatbot Bilder von schwarzen und asiatischen Nazi-Soldaten verbreitet hatte, als Warnung vor der Macht gesehen, die künstliche Intelligenz Tech-Titanen verleihen kann.

Letzten Monat bezeichnete Google-Chef Sundar Pichai die Fehler der Gemini-KI-App seines Unternehmens als „völlig inakzeptabel“, nachdem Fehler wie die Bilder von ethnisch unterschiedlichen Nazi-Truppen dazu geführt hatten, dass Benutzer vorübergehend keine Bilder von Menschen erstellen konnten.

Social-Media-Nutzer verspotteten und kritisierten Google für die historisch ungenauen Bilder, etwa die, die eine schwarze US-Senatorin aus dem 19. Jahrhundert zeigen – als der erste Senator dieser Art erst 1992 gewählt wurde.

„Wir haben bei der Bildgenerierung definitiv einen Fehler gemacht“, sagte Google-Mitbegründer Sergey Brin kürzlich bei einem KI-„Hackathon“ und fügte hinzu, dass das Unternehmen Gemini gründlicher hätte testen sollen.

Auf dem beliebten Kunst- und Technologiefestival South by Southwest in Austin befragte Personen sagten, der Gemini-Stolperfall verdeutliche die übermäßige Macht, die eine Handvoll Unternehmen über die Plattformen für künstliche Intelligenz haben, die bereit sind, die Art und Weise, wie Menschen leben und arbeiten, zu verändern.

„Im Grunde war es zu ‚aufgeweckt‘“, sagte Joshua Weaver, ein Anwalt und Technologieunternehmer, und meinte damit, dass Google in seinen Bemühungen, Inklusion und Vielfalt zu projizieren, übertrieben habe.

Google habe seine Fehler schnell korrigiert, aber das zugrunde liegende Problem bleibe bestehen, sagte Charlie Burgoyne, Geschäftsführer des Valkyrie Applied Science Lab in Texas.

Er verglich Googles Lösung von Gemini damit, ein Pflaster auf eine Schusswunde zu kleben.

Während Google lange Zeit den Luxus hatte, Zeit zu haben, seine Produkte zu verfeinern, liefert es sich nun einen KI-Wettlauf mit Microsoft, OpenAI, Anthropic und anderen, bemerkte Weaver und fügte hinzu: „Sie bewegen sich schneller, als sie wissen, wie man sich bewegt.“

Fehler im Bemühen um kulturelle Sensibilität sind Brennpunkte, insbesondere angesichts der angespannten politischen Spaltungen in den Vereinigten Staaten, eine Situation, die durch Elon Musks X-Plattform, das ehemalige Twitter, noch verschärft wird.

„Die Leute auf Twitter feiern mit großer Freude jedes Peinliche, was in der Technik passiert“, sagte Weaver und fügte hinzu, dass die Reaktion auf den Fauxpas der Nazis „übertrieben“ sei.

Das Missgeschick stellte jedoch in Frage, wie viel Kontrolle diejenigen, die KI-Tools nutzen, über Informationen haben, behauptete er.

Im kommenden Jahrzehnt könnte die Menge der durch KI erzeugten Informationen – oder Fehlinformationen – die von Menschen erzeugte Menge in den Schatten stellen, was bedeutet, dass diejenigen, die die KI-Sicherheitsmaßnahmen kontrollieren, enormen Einfluss auf die Welt haben werden, sagte Weaver.

– Bias-in, Bias-out –

Karen Palmer, eine preisgekrönte Mixed-Reality-Schöpferin bei Interactive Films Ltd., sagte, sie könne sich eine Zukunft vorstellen, in der jemand in ein Robo-Taxi steigt und „wenn die KI Sie scannt und denkt, dass es irgendwelche ausstehenden Verstöße gegen Sie gibt.“ … Sie werden zur örtlichen Polizeistation gebracht“, nicht zu Ihrem beabsichtigten Ziel.

KI wird auf riesigen Datenmengen trainiert und kann für eine wachsende Bandbreite an Aufgaben eingesetzt werden, von der Bild- oder Audioerzeugung bis hin zur Feststellung, wer einen Kredit erhält oder ob ein medizinischer Scan Krebs erkennt.

Aber diese Daten stammen aus einer Welt voller kultureller Voreingenommenheit, Desinformation und sozialer Ungleichheit – ganz zu schweigen von Online-Inhalten, die gelegentliche Chats zwischen Freunden oder absichtlich übertriebene und provokative Beiträge umfassen können – und KI-Modelle können diese Mängel widerspiegeln.

Mit Gemini versuchten die Google-Ingenieure, die Algorithmen neu auszubalancieren, um Ergebnisse zu liefern, die die menschliche Vielfalt besser widerspiegeln.

Der Versuch ging nach hinten los.

„Es kann wirklich schwierig, differenziert und subtil sein, herauszufinden, wo Voreingenommenheit liegt und wie sie einbezogen wird“, sagte Technologieanwalt Alex Shahrestani, geschäftsführender Gesellschafter der Anwaltskanzlei Promise Legal für Technologieunternehmen.

Selbst gut gemeinte Ingenieure, die sich mit der Ausbildung von KI befassen, können nicht anders, als ihre eigene Lebenserfahrung und unbewusste Voreingenommenheit in den Prozess einzubringen, glauben er und andere.

Burgoyne von Valkyrie kritisierte außerdem große Technologiekonzerne dafür, dass sie das Innenleben der generativen KI in „Black Boxes“ verbergen, sodass Benutzer keine versteckten Vorurteile erkennen können.

„Die Leistungsfähigkeit der Ergebnisse hat unser Verständnis der Methodik bei weitem übertroffen“, sagte er.

Experten und Aktivisten fordern mehr Diversität in den Teams, die KI und verwandte Tools entwickeln, sowie mehr Transparenz über deren Funktionsweise – insbesondere wenn Algorithmen die Wünsche der Benutzer umschreiben, um die Ergebnisse zu „verbessern“.

Eine Herausforderung besteht darin, die Perspektiven der vielen und unterschiedlichen Gemeinschaften der Welt angemessen einzubeziehen, sagte Jason Lewis vom Indigenous Futures Resource Center und verwandten Gruppen hier.

Bei Indigenous AI arbeitet Jason mit weit entfernten indigenen Gemeinschaften zusammen, um Algorithmen zu entwickeln, die ihre Daten ethisch nutzen und gleichzeitig ihre Sicht auf die Welt widerspiegeln, was er nicht immer in der „Arroganz“ großer Technologieführer sieht.

Seine eigene Arbeit, sagte er einer Gruppe, stehe in „einem solchen Kontrast zur Silicon-Valley-Rhetorik, wo es einen von oben nach unten gerichteten ‚Oh, wir machen das, weil wir der gesamten Menschheit zugute kommen‘-Blödsinn gibt, oder?“

Geminis fehlerhafte KI-Rassenbilder gelten als Warnung vor Technologie