Ecco come Apple a giugno intende trasformare Siri con l’intelligenza artificiale
I chatbot si basano sui cosiddetti modelli linguistici di grandi dimensioni, sistemi addestrati a riconoscere e generare testo (audio, immagini…) sulla base di enormi serie di dati raccolti dal web.
Siri, Alexa e Google Assistant, invece, sono essenzialmente sistemi detti di “comando e controllo”. Funzionano con uno script; sono in grado di comprendere un elenco finito di domande e richieste come “Che tempo fa ora?” o “Accendi le luci della camera da letto”. Se un utente chiede all’assistente virtuale di fare qualcosa che non rientra nel suo codice, quello dice che non sa che fare o che non ha capito.
Siri con IA generativa avrà quindi due grosse novità. Farà meglio le cose che l’attuale Siri fa e farà cose del tutto nuove. Nel primo caso è la possibilità di fare richieste più articolate, con linguaggio più naturale e senza bisogno di ripetere il contesto. Ad esempio, dopo aver chiesto che tempo fa domani in una certa potremmo aggiungere “che vestiti consigli”, senza dover ripeterà la città e il giorno. Ma potremo anche fare richieste complesse parlando normalmente, invece che spezzettarle in tanti comandi separati (“metti un timer alle 12, per un’ora, poi quando finisce fanne partire un altro da quindi minuti e manda un messaggio a mia madre”).
Siri ci capirà meglio insomma e con più facilità.
Per le cose nuove invece c’è una vasta e sconosciuta prateria, ma le prime indiscrezioni parlano di compiti tipici dell’AI generativa come riassumere un testo, generare musica o anche funzioni di agenti autonomi, come quelli che Amazon sta introducendo in Alexa (sotto forma di skill) o Google nell’app Gemini. Ad esempio consigliare un ristorante e fare la prenotazione, tutto a voce.
Fonte: Il Sole 24 Ore