Sam Altman: «La sorpresa più grande? Quando ci siamo accorti che ChatGpt funzionava veramente»

«La sorpresa più grande è stato accorgerci che ChatGpt funzionava davvero». Lo ha detto talmente serio che ha strappato una risata vera alla platea del Dreamforce a San Francisco. Il fondatore di OpenAi Sam Altman si è concesso in una lunga intervista con Marc Benioff ceo di Salesforce nella giornata di apertura di quello che è stato definito il più grande evento dedicato all’intelligenza artificiale. Altman si è raccontato spiegando che le allucinazioni, gli errori che compie il suo chatbot non sono necessariamente errori ma in futuro potrebbero diventare un nuovo modo di vedere le cose. Apparso particolarmente profetico e criptico, il giovane imprenditore ha però ribadito che nel breve periodo l’obiettivo resta quello di «avere i modelli più intelligenti, più capaci e più personalizzabili sul mercato». Rispondendo a una domanda sul suo film di fantascienza preferito ha citato ”Her” il film di Spike Jonze del 2013 quello con protagonista Joaquin Phoenix innamorato di una forma di intelligenza artificiale. «Dentro al film ci sono tante intuizioni – ha spiegato – sui modelli di interazione uomo macchina che si sono rivelate incredibilmente profetiche».

Altman parla a bassa voce dando l’impressioni di misurare ogni singola parola. Rispetto a un visionario di vecchia data come Marc Benioff che ha posto domande concrete il papà di ChatGpt ha voluto portare la discussione sui massimi sistemi evitando risposte puntuali. Fino al momento in cui si è parlato degli errori dell’Ai.

«Una delle cose non ovvie è che gran parte del valore di questi sistemi è fortemente correlato al fatto che hanno allucinazioni – ha sottolineato Altman -. Se vuoi cercare qualcosa in un database, abbiamo già del materiale utile per questo».
Proprio sulle allucinazioni, e quindi sugli errori, che questi modelli linguistici di grandi dimensione come ChatGpt e Bard si deve forse una della battute più folgoranti dell’intervista. Se usciamo dalla logica della puntualità diciamo quantitativa della risposta, «le allucinazioni – ha detto – sono più una caratteristica che un bug». Come dire, quando si parla di intelligenza artificiale generativa non aspettiamoci di avere risposte corrette. Questi chatbot prendono le informazioni esistenti e le presentano in un modo diverso e nuovo in base alla richiesta dell’utente e creando una prospettiva diversa. L’Ai, ha lasciato quindi intendere Altman, non è una calcolatrice. Quelli che oggi sono considerati errori potrebbero essere domani diventare suggestioni o lo spunto per nuove teorie. Come detto prima, se l’Ai avesse mai voluto cercare un profeta, oggi l’ha trovato.

Fonte: Il Sole 24 Ore