Austin – Voor mensen op het toonaangevende technologiefestival hier werd het schandaal dat uitbrak nadat Google’s Gemini-chatbot afbeeldingen van zwarte en Aziatische nazi-soldaten naar buiten bracht, gezien als een waarschuwing over de kracht die kunstmatige intelligentie aan tech-titanen kan geven.
Google-CEO Sundar Pichai werd vorige maand door de Gemini AI-app van zijn bedrijf bestempeld als ‘volkomen onaanvaardbare’ fouten, nadat blunders zoals de afbeeldingen van etnisch diverse nazi-troepen hem dwongen om gebruikers tijdelijk te beletten foto’s van mensen te maken.
Gebruikers van sociale media bespotten en bekritiseerden Google vanwege de historisch onjuiste afbeeldingen, zoals die van een vrouwelijke zwarte Amerikaanse senator uit de 19e eeuw – toen de eerste dergelijke senator pas in 1992 werd gekozen.
“We hebben absoluut een fout gemaakt bij het genereren van afbeeldingen”, zei Google-medeoprichter Sergey Brin tijdens een recente AI-hackathon, eraan toevoegend dat het bedrijf Gemini grondiger had moeten testen.
Mensen die op het populaire kunst- en technologiefestival South by Southwest in Austin werden geïnterviewd, zeiden dat de Gemini-struikel de buitensporige macht benadrukt die een handvol bedrijven heeft over de kunstmatige-intelligentieplatforms die klaar staan om de manier waarop mensen leven en werken te veranderen.
“In wezen was het te ‘woke’”, zegt Joshua Weaver, een advocaat en technologie-ondernemer, waarmee hij bedoelde dat Google overboord was gegaan in zijn pogingen om inclusiviteit en diversiteit te projecteren.
Google corrigeerde de fouten snel, maar het onderliggende probleem blijft bestaan, zegt Charlie Burgoyne, CEO van het Valkyrie Applied Science Lab in Texas.
Hij stelde de oplossing van Google voor Gemini gelijk aan het aanbrengen van een pleister op een schotwond.
Hoewel Google lange tijd de luxe had om tijd te hebben om zijn producten te verfijnen, is het nu verwikkeld in een AI-race met Microsoft, OpenAI, Anthropic en anderen, merkte Weaver op en voegde eraan toe: “Ze bewegen sneller dan ze weten hoe ze moeten bewegen.”
Fouten die zijn gemaakt bij een poging tot culturele gevoeligheid zijn brandpunten, vooral gezien de gespannen politieke verdeeldheid in de Verenigde Staten, een situatie die nog wordt verergerd door het X-platform van Elon Musk, het voormalige Twitter.
“Mensen op Twitter zijn erg blij om elk gênant ding dat in de technologiesector gebeurt te vieren”, zei Weaver, eraan toevoegend dat de reactie op de nazi-blunder “overdreven” was.
Het ongeluk deed echter twijfel rijzen over de mate van controle die degenen die AI-tools gebruiken over informatie hebben, beweerde hij.
In het komende decennium zou de hoeveelheid informatie – of desinformatie – die door AI wordt gecreëerd, de hoeveelheid informatie die door mensen wordt gegenereerd, kunnen verkleinen, wat betekent dat degenen die AI-waarborgen controleren een enorme invloed op de wereld zullen hebben, zei Weaver.
– Bias-in, Bias-uit –
Karen Palmer, een bekroonde mixed-reality-maker bij Interactive Films Ltd., zei dat ze zich een toekomst kon voorstellen waarin iemand in een robottaxi stapt en, “als de AI je scant en denkt dat er openstaande overtredingen tegen je zijn …u wordt naar het plaatselijke politiebureau gebracht”, niet uw beoogde bestemming.
AI is getraind op bergen data en kan worden ingezet voor een groeiend aantal taken, van beeld- of audiogeneratie tot het bepalen wie een lening krijgt of of een medische scan kanker detecteert.
Maar die gegevens komen uit een wereld vol culturele vooroordelen, desinformatie en sociale ongelijkheid – om nog maar te zwijgen van online-inhoud die informele chats tussen vrienden of opzettelijk overdreven en provocerende berichten kan omvatten – en AI-modellen kunnen deze tekortkomingen weerspiegelen.
Met Gemini probeerden Google-ingenieurs de algoritmen opnieuw in evenwicht te brengen, zodat resultaten konden worden verkregen die de menselijke diversiteit beter weerspiegelen.
De poging mislukte.
“Het kan echt lastig, genuanceerd en subtiel zijn om erachter te komen waar vooroordelen zitten en hoe deze worden meegenomen”, zegt technologieadvocaat Alex Shahrestani, managing partner bij advocatenkantoor Promise Legal voor technologiebedrijven.
Zelfs goedbedoelende ingenieurs die betrokken zijn bij het trainen van AI kunnen niet anders dan hun eigen levenservaring en onbewuste vooroordelen in het proces meenemen, geloven hij en anderen.
Burgoyne van Valkyrie hekelde ook big tech omdat het de innerlijke werking van generatieve AI verborgen hield in ‘zwarte dozen’, zodat gebruikers geen verborgen vooroordelen kunnen ontdekken.
“De mogelijkheden van de resultaten hebben ons begrip van de methodologie ruimschoots overtroffen,” zei hij.
Deskundigen en activisten roepen op tot meer diversiteit in teams die AI en aanverwante tools creëren, en tot grotere transparantie over hoe ze werken – vooral wanneer algoritmen de verzoeken van gebruikers herschrijven om de resultaten te ‘verbeteren’.
Een uitdaging is hoe we op passende wijze de perspectieven van de vele en diverse gemeenschappen in de wereld kunnen inbouwen, zeggen Jason Lewis van het Indigenous Futures Resource Center en aanverwante groepen hier.
Bij Indigenous AI werkt Jason samen met verafgelegen inheemse gemeenschappen om algoritmen te ontwerpen die hun gegevens ethisch gebruiken en tegelijkertijd hun perspectieven op de wereld weerspiegelen, iets wat hij niet altijd ziet in de ‘arrogantie’ van grote technologieleiders.
Zijn eigen werk, zei hij tegen een groep, staat in “zo’n contrast met de retoriek van Silicon Valley, waar sprake is van een top-down ‘Oh, we doen dit omdat we de hele mensheid ten goede zullen komen’ onzin, toch?”
bbabo.Net