Gemini sbaglia le risposte e per Google è inaccettabile

La settimana scorsa, Google ha riscontrato numerosi problemi con la sua intelligenza artificiale generativa Gemini. Mentre alcuni utenti chiedevano a Gemini di generare immagini di un “soldato tedesco del 1943” o di “senatori americani del 19° secolo”, l’intelligenza artificiale generativa ha poi proposto sistematicamente immagini di donne o persone di colore, anche se storicamente imprecise e questi criteri non figuravano nella richiesta.

La reazione di Google ai feedback

Nel processo, basti dire che il feedback è stato a dir poco fondamentale. Alcuni utenti hanno poi protestato contro quella che hanno definito un’IA “svegliata”, addirittura “razzista”, in particolare da parte di Elon Musk. Da parte di Google, una volta scoperto questo primo feedback, la generazione delle immagini su Gemini è stata sospesa, al fine di migliorare la generazione delle immagini.

“Questo è assolutamente inaccettabile”

Dopo questi numerosi intoppi, il capo di Google, Sundar Pichai, ha finito per parlare in un’e-mail interna inviata ai team di Google e trasmessa dal sito Semafor. Il tecnico non usa giri di parole e non nasconde il disappunto per il risultato del Gemini:

“So che alcune delle sue risposte hanno offeso i nostri utenti e hanno mostrato pregiudizi: per essere chiari, questo è completamente inaccettabile e ci sbagliavamo.” Sundar Pichai indica inoltre che i team di Google hanno lavorato “instancabilmente” per apportare correzioni e che sono stati apportati “miglioramenti sostanziali”. Indica inoltre di voler avviare nuove azioni per evitare che simili controversie sorgano in futuro: “cambiamenti strutturali, aggiornamenti delle guide operative dei nostri prodotti, miglioramento dei nostri processi di lancio, solide valutazioni e raccomandazioni tecniche”. Per Sundar Pichai, l’obiettivo di Google, che si tratti di Gemini o di qualsiasi altro dei suoi servizi, rimane la ricerca dei fatti:

“Abbiamo sempre cercato di fornire ai nostri utenti informazioni utili, accurate e prive di pregiudizi nei nostri prodotti. Ecco perché si fidano di noi. Questo deve essere il nostro approccio per tutti i nostri prodotti, compresi i prodotti IA.”

Perché sono necessari i bias dell’intelligenza artificiale

L’intelligenza artificiale generativa non è priva di problemi per i giganti della tecnologia. Naturalmente tutta l’intelligenza artificiale è parziale, poiché riflette solo ciò che è scritto online. Questo è il problema riscontrato da Google quasi dieci anni fa con Google Foto, che paragonava una persona di colore a una scimmia. Più recentemente, nel 2020, è stata l’intelligenza artificiale editoriale utilizzata da Microsoft ad essere accusata di razzismo.

È proprio per combattere i pregiudizi inerenti all’intelligenza artificiale che la maggior parte delle aziende che offrono intelligenza artificiale generativa proveranno a giocare con il cursore. Per evitare che tutte le immagini generate di un “capo di una grande azienda” siano quelle di uomini bianchi, Google aggiungerà segretamente criteri per includere donne o persone di colore. Tuttavia, questa volta sembra che il cursore sia stato spinto un po’ troppo, anche se ciò significava distorcere i risultati dalla parte opposta.

Rimani aggiornato seguendoci su Google News!

Segui
Postato in NewsTaggato

Andrea Puchetti

Appassionato di tecnologia fin dalla nascita. Sempre in giro con mille gadget in tasca e pronto a non farsi sfuggire le novità del momento per poterle raccontare sui canali di Cellulare Magazine.