L’intelligenza artificiale si autoreplica: la sicurezza è a rischio?
Speranza dalla nuova stagione normativa
In questo contesto, le normative europee di nuova e recente adozione lasciano ben sperare. La legge europea in materia di intelligenza artificiale (Artificial Intelligence Act), costruita su una visione antropocentrica dell’IA, crea un contesto di forte tutela dei diritti, incentivando al tempo stesso l’innovazione.
E proprio in tema di usi pericolosi dell’IA, le prime norme dell’AI Act a trovare applicazione, a partire dal 2 febbraio, sono proprio i divieti alle pratiche di IA che comportano un rischio inaccettabile, come la polizia predittiva o il social scoring.
Un’altra norma fondamentale è il Regolamento generale sulla protezione dei dati (Gdpr). Questa legge, perno centrale nella regolamentazione della data economy, assicura un contesto in cui si realizza una perfetta coesistenza tra circolazione e protezione dei dati personali, che costituiscono una componente sempre più frequente nello sviluppo dei sistemi di IA.
Con l’applicazione complementare e congiunta di queste due importanti normative l’Unione europea ha compiuto il primo importante passo per uno sviluppo dell’IA a favore dell’essere umano. Ci vorrà naturalmente tempo per saggiare l’impatto di queste regole sul mercato, ma le premesse fanno ben sperare.
Cosa possono fare le aziende?
Le regole in questo ambito rappresentano la garanzia di sostenibilità, proprio in un momento in cui per stessa ammissione degli scienziati, la tecnologia potrebbe facilmente generare inedite derive distruttive. Al contrario, per le imprese che sviluppano o utilizzano sistemi di intelligenza artificiale il rispetto, preventivo e proattivo, delle regole europee è ormai un nuovo fattore decisivo in termini di competitività, crescita ed esistenza.
Fonte: Il Sole 24 Ore