Intelligenza artificiale, la responsabilità va attribuita ai produttori

Intelligenza artificiale, la responsabilità va attribuita ai produttori

Se le regole che governano i mercati sono ben congegnate non frenano ma favoriscono l’innovazione. Anche perché servono a coordinare l’azione di diversi operatori in filiere e ecosistemi complessi a vantaggio, almeno in teoria, di un bene comune. Il caso delle intelligenze artificiali generative e dei grandi modelli linguistici, come ChatGpt, è particolarmente istruttivo. Una discussione informata è urgente, dato che proprio in questi giorni il “trilogo” tra Consiglio, Parlamento e Commissione europea decide il destino dell’Ai Act, una proposta di regolamentazione sistemica per il mercato dell’Ai.

E sono oltre 300 gli scienziati e gli esperti italiani che hanno voluto contribuire con una lettera aperta a chiarire la situazione e proporre al governo la massima attenzione per questa materia.

I modelli linguistici generativi come Gpt-4, di gigantesca complessità, sono ottenuti per addestramento su enormi risorse di dati da varie fonti (pagine web, libri, social media e altro). Hanno dimostrato prestazioni sorprendenti in una varietà di compiti linguistici. ChatGpt ha introdotto l’uso di tali modelli al grande pubblico globale. Sistemi come Stable Diffusion e MidJourney hanno rivoluzionato la creazione di immagini a partire da descrizioni testuali.

Tali modelli generativi pre-addestrati generalisti possono essere utilizzati dagli sviluppatori di una miriade di applicazioni specializzate in domini diversi, con effetti dirompenti sulla società e sull’economia: educazione, salute, scienza, tecnologia, industria, pubblica amministrazione, e così via, alimentando un ecosistema e una catena del valore innovativi.

D’altra parte, questi modelli generativi sono frutto di una tecnologia recente e ancora parzialmente immatura e mostrano evidenti lacune di affidabilità e sicurezza. Fra queste, la mancanza di trasparenza sui dati di addestramento e la loro provenienza, la presenza di bias e di errori imprevedibili (allucinazioni), la facilità di uso per scopi manipolativi (produzione di disinformazione), la difficoltà di interpretare o spiegare le risposte che producono e gli errori che compiono. Gli stessi produttori hanno espresso le loro preoccupazioni in materia.

Fonte: Il Sole 24 Ore