Al momento non è infallibile, e questo si sa. Se non altro perché è la stessa ChatGPT ad evidenziare in fondo alla sua pagina di accesso (con carattere molto ridotto, stile clausola di contratto bancario/assicurativo) quanto segue: “ChatGPT può commettere errori. Considera di verificare le informazioni importanti”. Abbastanza arcano il significato di informazioni importanti: quali sarebbero?

E va bene: sarà solo una questione di tempo. L’algoritmo deve ancora imparare ed essere ben tarato, ma alla fine la quasi perfezione sarà raggiunta. Oppure no?

Un aspetto critico già messo in evidenza in letteratura, e dagli utilizzatori, attiene ai potenziali Bias che l’AI si porta con sé; d’altra parte, l’intelligenza artificiale è comunque figlia dell’uomo che l’ha generata. E talis pater

In un recente articolo, L. R. Jain e V. Menon dell’Università dell’Alabama, elencano una serie di bias connessi a diverse applicazioni dell’intelligenza artificiale. Vediamo di che si tratta

Bias di dati o tecnici: si verificano quando i dati di addestramento utilizzati per creare l’algoritmo alla base dell’applicazione di AI sono distorti. Questo viene colloquialmente catturato nell’affermazione “bias in, bias out” (che tradotto male significa… se entra un bias, esce un bias). Ad esempio, nel caso in cui venga preparato un algoritmo per il riconoscimento facciale su un set di dati che incorpora volti prevalentemente bianchi, il modello AI/ML potrebbe avere difficoltà a riconoscere i volti di individui con tonalità della pelle più scure.

Bias storici: i dati storici sono comunemente usati per addestrare gli algoritmi di apprendimento automatico, ma è necessaria cautela a causa di potenziali distorsioni preesistenti. Il sistema automatizzato di valutazione dei candidati di Amazon del 2014 esemplifica questo problema. Addestrato su un decennio di dati, l’algoritmo ha favorito i candidati di sesso maschile a causa della sovra-rappresentazione di uomini in posizioni tecniche in Amazon. Di conseguenza, i candidati non maschi sono stati discriminati, portando all’abbandono del progetto nel 2015.

Pregiudizi sociali: si verificano quando l’algoritmo è programmato, intenzionalmente o meno, per discriminare determinati gruppi di persone. Secondo gli psicologi, esistono 180 diversi tipi di bias cognitivi, alcuni dei quali possono essere inclusi nelle teorie e influenzare lo sviluppo dei sistemi di intelligenza artificiale. Ad esempio, un algoritmo di assunzione programmato per dare la preferenza ai candidati di una determinata razza o genere e/o evitare candidati con disabilità, ecc.

Bias di automazione: si verificano quando i responsabili delle decisioni si fidano ciecamente dei risultati algoritmici, anche quando l’algoritmo produce risultati errati o distorti (questo mi sa che si diffonderà molto, specie in campo finanziario. Del genere: me lo ha detto l’intelligenza artificiale, non può essere sbagliato). Ad esempio, un giudice che si affida esclusivamente a un algoritmo di previsione della recidiva per prendere decisioni di condanna può inavvertitamente perpetuare le disparità razziali nel sistema di giustizia penale.

Bias di conferma: gli algoritmi possono perpetuare i bias esistenti, incorporando selettivamente le informazioni che li rafforzano. Ad esempio, i modelli di interpretazione dialettale associavano i nomi femminili a tratti come “genitori” e “matrimoni”, mentre i nomi maschili erano collegati a “professionale” e “stipendio”. Ciò suggerisce che il modello è stato addestrato su dati che riflettono questi stereotipi di genere, contribuendo potenzialmente alle disparità salariali di genere.

Gli autori concludono osservando che  questi generatori di pregiudizi hanno gravi ramificazioni, soprattutto in settori come l’istruzione, la pubblicità, il design e le arti, dove risultati errati possono rafforzare stereotipi negativi e contribuire a una rappresentazione diseguale nei media visivi.

Per trovare e correggere eventuali distorsioni, i modelli di intelligenza artificiale devono essere attentamente esaminati e scrutati. I pregiudizi algoritmici possono essere ridotti adottando misure come l’utilizzo di tecniche di messa a punto consapevoli dell’equità e rivalutando il modo in cui gli aspetti demografici sono rappresentati durante l’apprendimento per trasferimento. Per costruire modelli di AI imparziali ed equi che accolgano la diversità, riducano i pregiudizi e promuovano risultati equi in tutti i gruppi demografici, sono essenziali considerazioni di progettazione ponderate.

Come a dire: io speriamo che me la cavo.

 

Post scriptum

Ovviamente questo articolo è stato elaborato (anche) grazie all’intelligenza artificiale. Se ci sono errori, you know who is to blame!