Discriminazioni, pregiudizi e consumi energetici, il lato oscuro dell’Ai generativa

Discriminazioni, pregiudizi e consumi energetici, il lato oscuro dell’Ai generativa

Tina Eliassi-Rad è una scienziata statunitense. E’ docente alla Northeastern University di Boston dove studia gli scenari evolutivi dell’intelligenza artificiale. A giugno ha ritirato il Premio Lagrange, il più importante riconoscimento internazionale per la scienza dei sistemi complessi e dei dati. Istituito e finanziato dalla Fondazione Crt (Cassa di risparmio di Torino) e coordinato dalla Fondazione Isi (Istituto per l’interscambio scientifico). Ed è considerate a livello internazionale una voce critica sull’Ai

Quali sono alcuni dei potenziali pericoli o rischi associati all’intelligenza artificiale?

I potenziali pericoli e rischi associati all’uso della tecnologia di intelligenza artificiale sono già presenti. Questi includono mancanza di responsabilità, sfruttamento dei lavoratori, ulteriore concentrazione di potere, sorveglianza incontrollata, automazione non regolamentata e cambiamenti climatici avversi.Prendiamo ad esempio il cambiamento climatico. Le grandi aziende tecnologiche non rivelano l’impronta di carbonio della loro tecnologia AI generativa, come ChatGPT di OpenAI. Tuttavia, le migliori stime suggeriscono che la formazione di ChatGPT ha emesso 500 tonnellate metriche di anidride carbonica, equivalenti a oltre un milione di miglia percorse da un’auto a benzina media. Se avremo molte di queste tecnologie AI generative, il loro contributo ai cambiamenti climatici non può essere ignorato.

Come possono gli sistemi AI essere vulnerabili ai pregiudizi e alla discriminazione e quali sono le implicazioni di questi pregiudizi?

Quasi tutti i moderni sistemi AI utilizzano l’apprendimento automatico. Come definito da Arthur Samuel nel 1959, l’apprendimento automatico è il “campo di studio che dà ai computer la capacità di imparare senza essere esplicitamente programmato”. Pregiudizi e discriminazione possono insinuarsi in qualsiasi fase del ciclo di vita dell’apprendimento automatico: dalla definizione del compito alla costruzione del dataset, alla definizione del modello, ai processi di formazione, test e distribuzione, e infine al feedback. Prendiamo la definizione del compito. Un compito popolare è la valutazione del rischio, dove il sistema AI fornisce un valore tra 0 e 10 per indicare il rischio. Ad esempio, il rischio di Jack di inadempienza a un prestito è 8, mentre il rischio di Jill è 2. Quindi, è più probabile che Jill ottenga il prestito. I ricercatori e i professionisti dell’IA sanno molto sulla valutazione del rischio. I decisori umani apprezzano l’output della valutazione del rischio perché sono facili da capire. Tuttavia, ci sono numerosi problemi associati alla valutazione del rischio. Ecco solo due di essi. Primo, la maggior parte dei sistemi AI per la valutazione del rischio non fornisce valori di incertezza, cioè non indicano quanto il sistema sia sicuro o incerto sul suo punteggio di rischio. In un caso negli Stati Uniti, un giudice ha annullato un accordo di patteggiamento negoziato dagli avvocati semplicemente perché il sistema AI ha dato a un imputato un punteggio di rischio elevato. Se il sistema AI avesse detto che era sicuro solo al 40%, il giudice avrebbe potuto agire diversamente. Secondo, la maggior parte dei sistemi AI sono scatole nere in cui un essere umano non può capire perché il sistema ha assegnato a qualcuno un certo punteggio di rischio. Non c’è spiegazione o controinterrogatorio del sistema AI.

Fonte: Il Sole 24 Ore