Intelligenza artificiale, trasparenza sui contenuti

Intelligenza artificiale, trasparenza sui contenuti

Ultimamente l’intelligenza artificiale ha acquisito una capacità del tutto nuova: generare contenuti su richiesta dell’utente. Modelli del linguaggio come ChatGpt riescono a produrre testi convincenti e sistemi come MidJourney, sfornano immagini realistiche a partire da descrizioni testuali.Tutti i sistemi Ia che hanno trovato un uso diffuso nella società hanno avuto un’influenza significativa. Ma l’arrivo di Ia in grado di generare contenuti apre le porte a una forma di influenza del tutto nuova, perché i contenuti durano nel tempo e influenzano chiunque li incontri.

Questa è una novità importante, perché i contenuti generati dalle persone sono un materiale fondamentale su cui si basa la cultura. In un recente articolo, Yuval Noah Harari osserva che il linguaggio «è la materia di cui è fatta quasi tutta la cultura umana»: le leggi, i sistemi politici e le mitologie sono create e trasmesse attraverso il linguaggio. Altre componenti della cultura risiedono nelle immagini e nella musica. Tutte queste forme di contenuto possono ora essere prodotte in modo convincente anche dalle macchine. Per Harari, l’Ia generativa ha «violato il sistema operativo della nostra civiltà». Per questo motivo, merita un esame speciale.

Le richieste di trasparenza dell’Ia si sono finora concentrate sui processi, il modo in cui i sistemi di Ia sono disegnati e sviluppati, il contesto in cui operano. Ma se questi sistemi possono immettere contenuti durevoli nel mondo, la trasparenza deve estendersi anche a questi. In particolare, le persone dovrebbero avere la possibilità di sapere se un determinato contenuto che incontrano è stato creato da un essere umano o da una macchina.

Senza questo livello minimo di trasparenza, le conseguenze sulla cultura potrebbero essere disastrose. Harari suggerisce che una cultura di contenuti artificiali potrebbe intrappolare gli esseri umani «dietro una cortina di illusioni» e mettere a rischio la democrazia. Daniel Dennett sostiene che la proliferazione incontrollata di contenuti artificiali «minerà la fiducia da cui dipende la società» e «rischia di distruggere la nostra civiltà». Entrambi gli autori chiedono misure precauzionali urgenti, che richiedano che i contenuti generati dall’Ia siano identificabili in quanto tali.

È utile distinguere tra la trasparenza che regola le interazioni dirette con l’Ia (ad esempio nelle conversazioni con i chatbot) e la trasparenza sui contenuti generati dall’Ia. La prima questione è già oggetto di legislazione attuale o imminente in diverse giurisdizioni. Noi ci occupiamo della seconda questione. Un utente può prendere un contenuto prodotto in un’interazione diretta con l’Ia e trasmetterlo, senza rivelarne l’origine, ad esempio pubblicandolo sui social media o sottoponendolo a un insegnante o a un collega di lavoro. Quali meccanismi potrebbero garantire la trasparenza dei contenuti generati dall’Ia in questi ultimi incontri “indiretti”?

Fonte: Il Sole 24 Ore