L’Ai come il nucleare. Ecco la proposta di OpenAi per regolare la superintelligenza artificiale

L’Ai come il nucleare. Ecco la proposta di OpenAi per regolare la superintelligenza artificiale

Forse i robot non ci ruberanno il lavoro, non molto presto, ma ridurranno quasi sicuramente le opportunità degli individui. Ne è un esempio la piattaforma Bing Image Creator, basata sulla tecnologia Dall-e, che in pochi secondi crea un’artefatto grafico partendo da un nostro brief sintetico. Per chi non vuole spendere soldi in agenzie creative e cospicue commissioni, già questo è un modo per sfruttare l’intelligenza artificiale oggi, ottimizzando i tempi. Giusto o sbagliato che sia, ci sono persone che possono, nei limiti del possibile, indirizzare il futuro dell’IA, e in un certo senso incanalarlo verso sentieri più amichevoli di quelli immaginati da James Cameron nel suo Terminator. Però bisogna agire adesso, senza indugiare.
E di questo ne è convinto Sam Altman, amministratore delegato di OpenAI, l’organizzazione che ha beneficiato di ingenti investimenti da parte di Microsoft per sviluppare, e poi rendere disponibile, il modello GPT, alla base del chatbot ChatGPT. Con un lungo intervento al Senato degli Stati Uniti, il CEO ha risposto ai dubbi sull’ascesa dell’IA e sulle sue mire non di controllare il mondo ma di rivoluzionare le modalità con cui approcciamo molti scenari, dalla ricerca sul web alla produzione di contenuti digitali. Il sunto dell’intervento di Altman è qui: «Se non regolata, l’IA potrebbe causare danni significativi al mondo». Il CEO, insieme ai colleghi Greg Brockmann e Ilya Sutskever di OpenAI, ha pubblicato un post in cui spiega meglio la sua idea.

Come il nucleare

«Dato il quadro, è concepibile che entro i prossimi dieci anni i sistemi di intelligenza artificiale supereranno il livello di competenza degli esperti nella maggior parte dei domini e svolgeranno la stessa attività produttiva di una delle più grandi aziende attuali. In termini di potenziali vantaggi e svantaggi, la superintelligenza sarà più grande di altre tecnologie con cui l’umanità ha dovuto confrontarsi in passato. Possiamo avere un futuro drammaticamente più prospero ma dobbiamo gestire il rischio sul percorso da seguire. Data le innumerevoli potenzialità, non possiamo solo essere reattivi. L’energia nucleare è un esempio storico comunemente usato di una tecnologia con questa proprietà; la biologia sintetica ne è un altro. Dobbiamo mitigare i rischi ma è evidente che l’IA richiederà un trattamento e un coordinamento speciale».

Come si affronta una tematica del genere?

Partendo da una governance condivisa. Vuol dire, per OpenAI, affidarsi ad un’agenzia, super partes, che validi pro e contro non tanto dell’IA in generale ma delle specifiche applicazioni che entrano in gioco. «È probabile che alla fine avremo bisogno di qualcosa di simile all’AIEA (Agenzia internazionale per l’energia atomica ndr )». Per gli sforzi di superintelligenza; qualsiasi sforzo al di sopra di una certa soglia di capacità (o di risorse, come il calcolo) dovrà essere soggetto a un’autorità internazionale che possa ispezionare i sistemi, richiedere verifiche, testare la conformità con gli standard di sicurezza, imporre restrizioni sui gradi di diffusione e sui livelli di sicurezza, ecc. “Ma la governance dei sistemi più potenti, così come le decisioni relative al loro dispiegamento, devono avere un forte controllo pubblico. Crediamo che le persone in tutto il mondo debbano decidere democraticamente sui limiti e le impostazioni predefinite per i sistemi di intelligenza artificiale. Non sappiamo ancora come progettare un tale meccanismo, ma abbiamo in programma di sperimentarne lo sviluppo” spiegano Altman e soci.

Regole chiare e condivise

Un punto fondamentale, che in un certo senso riporta a galla la questione con il Garante italiano è dove OpenAI afferma la necessità di applicare regole ai progetti open source ma senza limitare, di molto, la soglia tecnologica a cui le organizzazioni possono attingere per il loro stesso sviluppo. “Dovremmo stare attenti a non spostare l’attenzione sulle iniziative più grandi, applicando standard che ridimensionino, al ribasso, la tecnologia applicata”. Durante l’audizione della sottocommissione del Senato, Altman è stato interrogato sul futuro del lavoro, una preoccupazione crescente di fronte all’accelerazione dell’automazione dell’IA. Il CEO ha sottolinea che “ci saranno posti di lavoro molto più numerosi dall’altra parte e migliori di quelli di oggi”. La rapida diffusione dei chatbot ha portato a dubbi molto più ampi su come l’intelligenza artificiale possa semplificare la diffusione di contenuti falsi, fuorvianti e lesivi del diritto d’autore. Temi su cui OpenAI si è detta disposta a collaborare, per ottimizzare la tecnologia e non affossarla prima del tempo.

Fonte: Il Sole 24 Ore