Un rapporto dell’UNESCO ritiene che l’utilizzo di assistenti vocali con voce femminile potrebbe avallare un atteggiamento sessista nei confronti delle donne.
Il rapporto, intitolato Blush if I Could, prende il nome dalla risposta che Siri forniva quando per scherzo veniva chiamato dagli utenti “bitch” (puttana, nd.r) e critica il fatto che Siri di Apple, Amazon Alexa, Google Assistant e Cortana di Microsoft, siano “esclusivamente femminili” o “femminili sia nel nome sia nel tono della voce “.
Ma perché tale fatto potrebbe rappresentare un problema? Secondo il rapporto, l’uso predefinito di assistenti vocali dalla voce femminile invia un segnale agli utenti che le donne sono “cortesi, docili e desiderose di aiutare chi chiede aiuto, disponibili con il semplice tocco di un pulsante o con un comando vocale sussurrato come ‘hey’ o ‘OK’ “.
Il rapporto sottolinea anche il fatto che gli assistenti vocali non hanno “alcun potere di risposta al di là di quello che viene loro richiesto” e rispondono alle domande “indipendentemente dal tono o dall’ostilità di come queste vengono poste.
Sempre secondo il rapporto, ciò ha l’effetto di rafforzare “pregiudizi di genere comunemente sostenuti che le donne sono sottomesse e tolleranti anche in presenza di trattamenti inadeguati”.
Questa sottomissione è particolarmente preoccupante quando gli assistenti vocali danno “risposte devianti, insipide o apologetiche alle molestie sessuali verbali”.
Una consuetudine che non sarebbe così rara, considerato che il 5% delle interazioni con gli assistenti vocali sono relative a domande sessualmente esplicite.
Secondo un rapporto di Quartz nel 2017, quando veniva chiesto a Siri “chi è il tuo papà?’, Siri rispondeva: ‘sei tu; e quando ad Alexa veniva detto “You are hot”, l’assistente rispondeva: “è carino da parte tua”.
Gli assistenti vocali sono ormai sempre più realistici e per tale motivo questo tipo di risposte rischiano di “rafforzare gli stereotipi delle donne come asservite e sottomesse”.
Da allora, Alexa è stata aggiornata proprio per eliminare problemi derivanti da molestie verbali, e ora risponde: “Non ho intenzione di risponderti” o “Non sono sicuro di cosa ti aspettassi”.
Perché si discute tanto sugli assistenti vocali che parlano con voce femminile di default? Perché il nostro modo di porci nei confronti dei dispositivi elettronici potrebbe influenzare il comportamento con donne e ragazze nella vita reale.
Secondo Safiya Umoja Noble, docente di sociologia all’Università della California del Sud, “gli assistenti virtuali produrrebbero un aumento del linguaggio basato sui comandi utilizzato nei confronti delle donne”.
Il professor Noble ritiene che i comandi diretti agli assistenti vocali come “trova x”,”chiama x”,”cambia x” o “ordina x”- funzionino come potenti strumenti di socializzazione e insegnino alle persone, in particolare ai bambini, che il ruolo di una donna o di una ragazza sia quello di rispondere a domanda”.
Quindi, perché gli assistenti vocali con voce di donna sono così preponderanti e diffusi? Secondo l’UNESCO, il problema sta nella mancanza di donne nelle stanze dei bottoni quando le aziende tecnologiche progettano i loro assistenti vocali. Opinione confermata dal fatto che solo il 7% dei brevetti in tutti i Paesi del G20 nel campo dell’ICT sono stati presentati da donne. Una dimostrazione, secondo l’UNESCO, di quanto siano cristallizzati i pregiudizi di genere nei prodotti tecnologici.
Oltre a raccomandare che il divario di genere digitale venga ridotto “reclutando, conservando e promuovendo le donne nel settore tecnologico”, il rapporto raccomanda anche che gli assistenti vocali siano dotati in futuro di più voci maschili di default.
Secondo CNet, Amazon e Apple si sono astenute dal rispondere a una precisa richiesta di commento mentre Microsoft ha risposto declinando l’invito.
Google, infine, afferma che “ha sviluppato una varietà di 10 offerte vocali negli Stati Uniti e quando i clienti impostano un dispositivo Google Home, hanno una probabilità del 50% di ottenere in automatico una voce maschile o femminile”.