C’è un’immensa fabbrica davanti ai tuoi occhi, e nessun spiraglio di luce penetra dalle grandi finestre vetrate. Intorno a te solo buio e silenzio. Dov’è il via vai di operai? E il loro chiacchiericcio? Tutto tace. Non è quello che ti aspettavi. A tender bene l’orecchio però, si avverte qualcosa. Quello che senti in lontananza non è un rumore, piuttosto qualcosa di più dolce, musicale…
 
Prima fase. Macchine e uomini lavorano insieme, ma con mansioni diverse: i robot sono “isolati” in spazi metallici, per proteggere gli operai dal rischio infortuni.

Seconda fase. Le macchine escono dalla gabbie e conquistano spazio: lavorano fianco a fianco agli uomini. Non è un asettico ronzio metallico quello che senti: piuttosto una musica. Proviene dal robot. È il suo modo di dirti: “Sto arrivando”. La mano sulla spalla che senti dietro di te è la stessa di quella del tuo ormai ex collega: solo un po’ più fredda.

Terza fase: i robot sostituiscono gli uomini. È l’industria del futuro, prossimo, in alcuni casi già “presente”. Degli uomini non c’è più traccia in azienda. Di accendere le luci non c’è bisogno. I robot sanno come muoversi, e lo fanno H24. In silenzio.

Impatto economico. Sociale. Etico. L’intelligenza artificiale applicata ai robot dovrà affrontare tutte queste problematiche. Ma il problema di fondo, stando a John Giannandrea, nuovo capo delle ricerche di Google ed esperto in intelligenza artificiale, è un altro: i pregiudizi.

Ebbene sì. Anche i robot possono avere preconcetti. E come gli uomini possono esprimere opinioni (e quindi compiere azioni) basate non sulla conoscenza oggettiva dei fatti ma su conoscenze arbitrarie e approssimative.

Il problema è: in un mondo dove i robot stanno sostituendosi sempre più spesso alle mansioni degli uomini, che peso rischiano di avere queste decisioni pregiudizievoli? Decisioni prese dalle macchine, per conto e al posto degli uomini, rischiano di ritorcersi contro gli stessi uomini? Il rischio è serio e concreto.

Problemi del genere già si verificano in ambiti di vita comune. Un colloquio per un posto di lavoro. Un prestito o un mutuo in banca. Una valutazione finanziaria. Molte di queste analisi, già oggi, vengono effettuate, almeno allo stadio iniziale, in maniera automatica. Se l’intelligenza artificiale che le muove è viziata da pregiudizi, quali saranno gli effetti?


Chi ha ascoltato la prima intervista di Sophia lo sa bene. Sophia assomiglia ad Audrey Hepburn: è la prima donna-robot dotata di intelligenza artificiale. È stata creata per interagire con gli esseri umani. Sa ricordare le conversazioni precedenti e da esse, come dallo sterminato database al quale accede, impara cose nuove. Ammicca, sorride, sbadiglia. Sophia risponde anche alle domande: “Vuoi distruggere il genere umano? - gli chiede il suo creatore David Hanson - Ti prego, di’ di no…” “Certo, distruggerò il genere umano” risponde Sophia senza batter ciglio. “Ritiro tutto quello che ho detto sull’intelligenza artificiale amica dell’uomo” chiosa sorridendo amaro il suo creatore.


Sophia è stata vittima di un’informazione pregiudizievole immessa nel proprio database dai suoi creatori. È stata vittima di quei pregiudizi dai quali Giannandrea ci mette in guardia. La chiave di volta è la trasparenza. Per il capo delle ricerche di Google è fondamentale essere trasparenti sulla produzione dei dati che usiamo e cercare i pregiudizi nascosti al loro interno. Altrimenti costruiremo sistemi viziati. E sistemi viziati sono macchine che funzionano male: non servono a nessuno.


Per farlo, occorrono ingegneri, analisti ed esperti che possano “ripulire” gli algoritmi da tutte le informazioni distorte. Ma dato che parliamo di pregiudizi, sicuri che non servano anche persone con qualifiche, e un approccio, più umanistico? Tanto più se è vero quel che dice l’ideatore di Sophia, ovvero che l’intelligenza artificiale è stata creata per essere amica dell’Uomo.