Incoscienza Artificiale

Photo by Markus Winkler on Unsplash

Finito di leggere in questi giorni (Marzo 2022) il libro “Incoscienza Artificiale” di Massimo Chiriatti.

Il libro tratta l’Intelligenza Artificiale da un punto di vista puramente filosofico e non pratico.

Non troverete quindi in questo libro niente di tecnico ma solo molte considerazioni su questa tecnologia e su cosa dobbiamo aspettarci.

Alcuni passaggi, riportati di seguito, mi sono rimasti particolarmente impressi, sia perché rafforzano alcune considerazioni che anche io avevo già fatto discutendo con amici e colleghi in merito alla IA, sia perché altri sono stati per me nuovi spunti di riflessione.


"L'Uomo vede l'Intelligenza Artificiale come una macchina in grado di prendere le sue decisioni, ma si sbaglia, perché è solo un calcolatore di simboli, anche se sempre più sofisticato. L'Intelligenza Artificiale vede l’Uomo come un insieme di numeri, ma si sbaglia, perché la coscienza è incomputabile."

Interessante questo passaggio, dove oltre al punto di vista dell’uomo verso la tecnologia dell’IA si prende in considerazione anche l’altro punto di vista, ossia come una IA può vedere l’uomo e quindi, in modo errato, come interpretarci.


Photo by Max Langelott on Unsplash
"La stella polare dell'IA sono i dati con i quali è stata addestrata: sono quelli i suoi ordini e il suo padrone. Dobbiamo evitare la tirannia degli algoritmi, elevati al rango di esperti in grado di governare il mondo. Dobbiamo prestare attenzione perché stiamo affrontando una forma di discontinuità che non sappiamo ancora interpretare.
Teniamo sempre a mente che: “Una previsione non è una decisione.
Per prendere una decisione è necessario applicare il giudizio a una previsione e poi agire”. Non dobbiamo essere solo parte di quello che accadrà, ma essere al centro dell’IA che costruiremo."

Affermazione totalmente condivisibile. L’IA che usiamo giornalmente per prevedere il meteo, si basa su una mole di dati storici e calcoli statistici che difficilmente potremmo fare noi uomini e nello stesso tempo in cui un calcolatore riesce a farlo. Però noi possiamo uscire di casa ed alzare gli occhi al cielo e sulla base della previsione e della nostra vista, prendere con coscienza una decisione “.. uscire o no senza ombrello?…

"Di solito si ritiene, correttamente, che le tecnologie non siano neutrali, ma nel caso dell'IA è ancora più opportuno ricordarsi che nemmeno i dati lo sono: i corposi data-set dati in pasto agli algoritmi rappresentano la stratificazione di anni e anni di distorsioni e pregiudizi; mostrano cioè alcune realtà sottese alle nostre società che spesso tendiamo a rimuovere."

Sappiamo benissimo che la “neutralità” è una condizione a cui possiamo anche tendere ma che non raggiungeremo mai. Nessuno è neutrale e quindi nemmeno i dati che produciamo ogni giorno. Abbiamo “bias cognitivi” che guidano i nostri giudizi, “bias” dati da cultura, formazione, storia ecc. ecc. “Bias” di cui non ci rendiamo nemmeno conto ma che moltiplicati per i milioni di individui che siamo portano a dati “non neutrali”. E questo va tenuto giustamente di conto quando si parla di IA.


"Tutte le IA sono addestrate sulla base di ciò che viene detto e scritto, e finiscono per riprodurre proprio per questo, inclusi i pregiudizi razziali e di genere, poiché i dati di addestramento utilizzati come riferimento provengono dal nostro mondo imperfetto."

Come detto sopra, una IA non fa altro che interpretare i dati, articoli, libri, statistiche ecc. ecc.

Se questi dati contengono pregiudizi o semplicemente trattano un argomento in modo più specifico rispetto ad un altro, L’IA sarà di conseguenza sbilanciata. Molti sono gli esempi che già abbiamo.

La Cina è uno dei paesi più all’avanguardia sull’Intelligenza Artificiale. La utilizzano molto per il controllo, attraverso le telecamere ed il riconoscimento facciale. Solo che le IA cinesi e gli algoritmi sottesi, sono state allenate con milioni se non miliardi di fotografie e di video con soggetti Asiatici. Queste stesse IA faranno quindi fatica a riconoscere in modo più selettivo un europeo o un afroamericano, in quanto i dati per distinguere le caratteristiche di questi individui sono minoritari rispetto a quelli di volti asiatici.

Oppure prendiamo ad esempio l’IA di alcune fotocamere Nikon che tende a classificare come asiatici le persone che nella foto tengono gli occhi socchiusi.


"Gli algoritmi non hanno né opinioni né etica: siamo noi ad averle e, eventualmente, a trasmetterle alle macchine; quindi chiedere loro l'imparzialità sarebbe un paradosso, perché dovremmo prima di tutto rivolgerci a noi stessi, che siamo tutto fuorché imparziali e oggettivi."

Il problema quindi dell’IA non è solo tecnologico, anzi quando la tecnologia sarà matura e sempre più performante avremo milioni, miliardi di dati, prodotti da noi uomini, che avranno problemi, seguiranno “bias” e saranno impuri. Il problema dell’IA probabilmente saremo proprio noi uomini.


Naturalmente vi consiglio di acquistare il libro, vi lascio il link diretto ad Amazon.

https://amzn.to/3tHu4FI

Articolo creato 23

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Articoli correlati

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto