Skip to content
Luca Nicola25 mar 20192 min read

Rischiamo di trasmettere i nostri pregiudizi all'Intelligenza Artificiale? | Fondazione IBSA

 
 

In questa TED Conference, la tecnologa Kriti Sharma pone un problema molto serio.

Oramai gli algoritmi dell’Intelligenza Artificiale sono continuamente utilizzati per prendere decisioni su cose importanti che riguardano la nostra vita: non solo le nostre preferenze di consumo, ma anche, per esempio, quanto farci pagare l’assicurazione dell’auto o se ammetterci o meno a un colloquio di lavoro.

E queste decisioni sono tutte filtrate da una serie di ipotesi sulla nostra identità, sulla nostra razza, sul nostro genere, sulla nostra età, sui nostri possibili comportamenti.

Si potrebbe pensare che siano valutazioni oggettive, proprio perché le compie una macchina.

In realtà, l’Intelligenza Artificiale impara dai dati che le vengono forniti per addestrare il suo modello di apprendimento automatico. Quindi, se questi dati sono influenzati e distorti dai nostri pregiudizi, gli algoritmi su cui si basa l’Intelligenza Artificiale hanno maggiori probabilità di produrre risultati distorti.

Oltretutto, è molto difficile avere sotto controllo tutti gli aspetti di autoapprendimento dell’Intelligenza Artificiale (il cosiddetto “deep learning”, apprendimento profondo) che si basa su architetture informative molto complesse, che prevedono anche fasi dove la macchina decide in autonomia, senza l’intervento umano.

La mancanza di trasparenza nello spiegare come vengono prese le decisioni degli algoritmi sta sollevando da più parti richieste di regolamentazione dell’Intelligenza Artificiale. Ma non è semplice percorrere questa strada, che oscilla sempre tra l’emanazione di linee guida etiche e l’applicazione di misure normative e legali più stringenti e rigorose. Su questo punto la comunità tecnologica, i governi e i membri della società civile non hanno posizioni univoche.

Da parte sua, Kriti Sharma propone tre semplici azioni da intraprendere:

“Ci sono tre cose che possiamo fare. La prima: possiamo essere consapevoli dei nostri pregiudizi e dei pregiudizi insiti nelle macchine che ci circondano. La seconda: possiamo assicurarci che siano team diversi, con idee e provenienze diverse, a costruire questa tecnologia. E infine, dobbiamo dare all’Intelligenza Artificiale esperienze diverse da cui poter imparare”.

E’ interessante notare che, al di là di indubbie e complesse questioni tecniche e operative, questi suggerimenti mirano a introdurre una serie di buone pratiche che hanno molte analogie con quelle che si cercano di applicare da tempo nell’educazione umana. Ma che richiedono anche nuovi tipi di competenze e di attitudini:

“Abbiamo bisogno di persone che possano scrivere e raccontare storie per aiutarci a creare la ‘personalità’ dell’Intelligenza Artificiale. Abbiamo bisogno di persone che affrontano sfide diverse e che possano dirci quali sono i problemi reali che devono essere risolti. Persone in grado di aiutarci a trovare modi in cui la tecnologia possa effettivamente risolverli. Perché quando si uniscono persone di provenienze diverse, costruiamo le cose nel modo giusto e abbiamo davanti possibilità infinite”.

avatar

Luca Nicola

Copywriter dal 1988, ha iniziato la sua carriera in De Agostini, per poi scegliere di continuare come freelance. Laureato in Filosofia, attualmente è anche docente di Web Marketing presso il Centro di Formazione Federlegno. Come consulente di comunicazione lavora da anni per molti clienti, tra cui alcuni grandi gruppi internazionali. Nel 2012 ha aperto il blog personale "Mela N" dove tratta argomenti legati alla Scrittura, alla Comunicazione, al Content Marketing e allo Storytelling.

You may be interested in: