Siamo condizionati dall’intelligenza artificiale? Il lato oscuro del “Sistema 0”
Recentemente alcuni studi si sono chiesti se interagire con i nuovi sistemi di intelligenza artificiale non possa avere un impatto profondo sulla nostra cognizione e modificare il nostro modo di pensare, al punto da sostenere che questi sistemi possano costituire un nuovo sistema di pensiero, che si pone in una relazione dialettica e integrativa con il nostro apparato cognitivo.
Il termine scelto per indicare il ruolo dei sistemi di Intelligenza artificiale nell’ambito della cognizione umana, e cioè appunto Sistema 0, è suggestivo, per quella che riconosciamo essere l’essenza di tali sistemi, ma riteniamo che tale termine celi anche un lato oscuro, che evidenzieremo a seguire. Da una parte, infatti, denotare come Sistema 0 la funzione tipica della Ai, quali proporre categorie di interpretazione, stime di misure e contenuti testuali e non, suggerisce quale sia la natura essenziale di questi sistemi e ricorda quali processi tecnici li producano. Tali sistemi sono infatti sviluppati a partire dalla elaborazione di grandi quantità di dati pre-esistenti, è ben noto; ma questi dati non sono altro che l’immensa stratificazione di interazioni passate tra l’essere umano e i suoi strumenti di registrazione, la sua documanità : innumerevoli risposte corrette, e ancora più numerose frasi che altre persone, molti dei quali assimilabili a veri e propri antenati e nostri progenitori, hanno scelto, e registrato, per la loro chiarezza, accuratezza e, in generale, adeguatezza rispetto ad un determinato obiettivo.
Questo ci permette di vedere i sistemi a supporto delle decisioni e i sistemi di generazione di contenuti come dei portali ad un mondo umano passato; un mezzo che media l’accesso, in modo più interattivo di quanto abbiano sempre fatto i libri, e in modo molto più naturale di quanto facciano i motori di ricerca da poco più di due decenni, alla cultura materiale dei testi e delle immagini, alle tracce di conoscenza e comportamenti che sono recuperabili da tutto ciò che altri hanno registrato, scritto, stampato, pubblicato, affinché questa eredità dal passato potesse esserci riproposto per rispondere a nuovi quesiti o esigenze: appunto un Sistema 0. Un sistema che preesiste ad ogni nuova interpretazione, decisione o azione creativa, che viene prima di esse, e che ad esse si offre come dono ed eredità dal passato, per ogni possibile presente futuro: insomma la IA sia come manifestazione della cultura, ma anche e soprattutto come macchina culturale , che produce cultura materiale e trasmette (ma sarebbe meglio dire riproduce, attraverso derivazioni, trasformazioni e remix) conoscenza, in un processo e flusso di informazioni che nasce dal gruppo sociale, distribuito tanto nello spazio quanto nel tempo, e arriva al singolo, al suo qui e ora, alla sua azione situata nel mondo.
D’altra parte, il lato oscuro di ogni Sistema 0 sta proprio in questa funzione: la riproduzione del passato può essere sia sorgente di ispirazione, che vincolo e inquadramento; i filosofi direbbero che ogni Sistema che si pone come 0 (fin dal suo nome) è una struttura strutturante (il Gestell di cui parla Heidegger nella sua nota critica a ogni tecnologia ); gli psicologi potrebbero parlare di tecnologia del super-Io, cioè di una tecnologia che facilita l’interiorizzazione delle norme e dei valori sociali (cioè di ciò che è considerato normale o giusto in una determinata comunità o cultura) nel ragionamento dell’individuo; i cognitivisti parlerebbero di effetto di preattivazione (o priming), cioè di come quel sistema potrebbe influenzare, con i propri output, la risposta ad ogni altro stimolo successivo, e potrebbero mettere in guardia dal pregiudizio di disponibilità (availability bias) che i Sistemi 1 e 2 potrebbero sviluppare qualora operassero sui dati che rendesse loro disponibili il Sistema 0, o se comunque interpretassero una situazione alla luce della pre-elaborazione di un qualsiasi Sistema 0.
Chi scrive ha condotto personalmente degli studi su questo fenomeno , e ritiene che in ogni ambito di lavoro di intelletto dove si debbano prendere decisioni in situazioni di incertezza e che possono avere effetti rilevanti sulla vita delle persone (come in medicina, nelle risorse umane, in contesti legali o del credito, e in tanti altri) dovrebbe piuttosto chiamarsi Sistema 1 e mezzo, o forse proprio Sistema 3, per suggerire come sia opportuno salvaguardare ogni decisore, fin dal design di un tale supporto e del protocollo di interazione con esso, dal condizionamento di un parere che può influenzare decisioni di cui è sempre l’ultimo responsabile. La IA dovrebbe venire dopo, non prima, a costo di essere progettata per fare domande e far venire dubbi, piuttosto che come dispensatrice di risposte e certezze .
Fonte: Il Sole 24 Ore