Almawave lancia Elvet, la Gen AI che parla italiano. Ecco cosa sappiamo
La descrizione tecnica ufficiale è la seguente: modelli di intelligenza artificiale generativa multilingua. Ma Velvet, la nuova famiglia di Large Language Model (LLM) fondazionali sviluppati integralmente da Almawave in Italia su propria architettura e rilasciati in modalità open source nella versione Instruct, rappresentano probabilmente qualcosa in più di una tecnologia di frontiera. Intanto perché i modelli in questione, Velvet 14B e Velvet 2B, sono stati addestrati sul supercalcolatore Leonardo gestito da Cineca e sono frutto delle numerose collaborazioni in essere con il mondo accademico e della ricerca (dall’Università Tor Vergata alla Fondazione Bruno Kessler, da La Sapienza alle Università di Catania e di Bari) e in secondo luogo perché sono strumenti dell’eccellenza ingegneristica tricolore a disposizione delle imprese pronti all’uso, in cloud sulle principali piattaforme (AWS, Oracle e Microsoft tanto per fare alcuni nomi) oppure in modalità on premise e on the edge. La società del Gruppo Almaviva ha quindi fatto un passo in avanti importante nel processo di diffusione della Gen AI e delle tecnologie che ne alimentano le funzionalità e lo fa, come si legge in una nota, attraverso una soluzione fondata su governance dei dati, facilmente specializzabile e che rispetta in toto il quadro regolatorio europeo all’insegna di efficienza, agilità e bassi consumi. “Velvet – ha rimarcato in sede di presentazione Valeria Sandei, Amministratore Delegato di Almawave – nasce dalla scelta strategica di investire con determinazione in un ambito tecnologico di vasto potenziale positivo, realizzando un’intelligenza artificiale progettata per condensare al tempo stesso efficacia, sostenibilità energetica e grande agilità nell’adattarsi a svolgere compiti mirati nei settori verticali in cui operiamo. Il lancio di questi primi modelli generativi è solo l’inizio e ci conferma come un player protagonista in Europa, convinti che l’intelligenza artificiale sia una sfida aperta e che quanto fatto sia la miglior premessa per mettere in campo evoluzioni sempre più rilevanti”.
Tecniche di “data lineage” e algoritmi proprietari
Integrata nel portafoglio di soluzioni applicative della piattaforma di intelligenza artificiale multiagentic AIWave, Velvet è disegnata secondo le linee di riferimento dell’AI Act e del quadro regolatorio complessivo. I modelli, come detto, sono multilingua e si contraddistinguono per le capacità specifiche di tutela delle singole lingue, in particolare di quella italiana. Per fare questo sono state utilizzate tecniche e metodologie di “data lineage” che consentono di identificare e rappresentare il ciclo di vita del dato, dalle sue origini alla sua destinazione, evidenziando i principali processi che lo coinvolgono e le sue trasformazioni nel tempo). Se l’obiettivo finale è quello di ridurre i rischi di discriminazione e mitigare i bias cognitivi, una particolare attenzione in fase di progettazione è stata posta sul tema privacy, al fine di consentire una gestione più efficace e tempestiva di queste tematiche. Un elemento innovativo di Velvet in tal senso è “PAE” (Privacy Association Editing), un algoritmo proprietario che permette di eliminare, ove necessario e direttamente dal modello, le informazioni sensibili, senza necessità di riaddestramento. Altro punto di forza di Velvet, infine, è a livello infrastrutturale: i modelli possono essere utilizzati anche su sistemi di piccole dimensioni con processori GPU di ultima generazione, contenendo impronta di carbonio e riducendo i costi di addestramento e di esercizio in contesti estesi.
Le caratteristiche
Scorrendo le specifiche tecniche dei due modelli, fra i principali numeri che identificano Velvet 14B spiccano i 14 miliardi di parametri, il vocabolario da 127mila parole in sei lingue (italiano, tedesco, spagnolo, francese, portoghese, inglese) e una finestra di contesto da 128mila token che lo rendono adatto ai set documentali più articolati. Addestrato come il fratello maggiore sul supercalcolatore Leonardo con oltre 2.000 miliardi di token (per il modello 14B ne sono stati impiegati oltre 4.000 miliardi), Velvet 2B è caratterizzato da due miliardi di parametri, in italiano e inglese, con una finestra di contesto da 32mila token e un vocabolario di 127mila parole.
Le applicazioni
La famiglia Velvet, confermano infine da Almawave, è stata tecnicamente realizzata con capacità di comprensione testuale e funzioni evolute tali da renderla adatta a svolgere compiti specifici in qualsiasi azienda, anche in ambiti verticali complessi come sanità, pubblica amministrazione, sicurezza e finanza. Grazie all’integrazione nativa all’interno di AIWave, sono oltre 30 le soluzioni applicative pronte all’uso, destinate a diversi settori e finalizzate alla gestione di compiti articolati su dati e informazioni. Al momento, Velvet è già in fase di beta-testing presso alcuni importanti clienti del Gruppo.
Fonte: Il Sole 24 Ore