L’Europa approva la prima legge sull’intelligenza artificiale



L’intelligenza artificiale (IA) è una delle tecnologie più promettenti e allo stesso tempo più sfidanti del nostro tempo. Può portare grandi benefici in termini di innovazione, crescita, competitività, salute, sicurezza e benessere, ma può anche sollevare questioni etiche, legali e sociali. Per questo motivo, l’Unione europea ha deciso di dotarsi di una normativa specifica che regoli lo sviluppo e l’uso dell’IA nel rispetto dei valori e dei diritti fondamentali europei.


Sfide e opportunità per le startup nel 2024

Il 2 febbraio 2024, gli ambasciatori dei 27 Stati membri hanno approvato all’unanimità l’accordo politico raggiunto a dicembre 2023 tra il Consiglio e il Parlamento europeo sulle regole sull’IA. Si tratta della prima legge al mondo che affronta in maniera complessiva questo settore, con l’obiettivo di garantire che l’IA sia sicura, affidabile, trasparente e responsabile. Il testo dovrà ora passare ai voti finali di Consiglio e Parlamento, previsti per marzo 2024.
Le regole si basano su un approccio basato sul rischio, che classifica i sistemi di IA in quattro categorie: proibiti, ad alto rischio, a rischio limitato e a rischio minimo. I sistemi proibiti sono quelli che violano i diritti umani o la dignità, come quelli che manipolano il comportamento umano o consentono la sorveglianza di massa. I sistemi ad alto rischio sono quelli che possono avere un impatto significativo sulla vita, la salute, la sicurezza o i diritti delle persone, come quelli usati in ambito sanitario, giudiziario, bancario, assicurativo, trasportistico o educativo. Questi sistemi dovranno rispettare una serie di requisiti, tra cui la qualità dei dati, la robustezza, la precisione, la tracciabilità, l’accessibilità, la supervisione umana e la possibilità di intervento e correzione. Inoltre, dovranno essere certificati, registrati e soggetti a controlli da parte delle autorità nazionali competenti.


Regole e salvaguardi per l’uso dell’IA

I sistemi a rischio limitato sono quelli che implicano una certa interazione con gli utenti, come i chatbot o gli assistenti vocali. Questi sistemi dovranno essere chiaramente identificati come tali e fornire informazioni sufficienti agli utenti per consentire un uso consapevole e informato. I sistemi a rischio minimo sono quelli che non presentano rischi significativi per i diritti o la sicurezza delle persone, come quelli usati per scopi ludici o artistici. Questi sistemi saranno soggetti a poche o nessuna regola, per favorire la libertà di espressione e di innovazione.
Le regole prevedono anche alcune salvaguardie e ristrette eccezioni per l’uso di sistemi di identificazione biometrica (come il riconoscimento facciale) in spazi pubblici ai fini di applicazione della legge, previa autorizzazione giudiziaria e per elenchi di reati rigorosamente definiti. Inoltre, le regole stabiliscono un quadro di governance, che coinvolge la Commissione europea, gli Stati membri, le autorità nazionali di vigilanza, un comitato europeo sull’IA e un consiglio consultivo multilaterale, con il compito di monitorare, coordinare e supportare l’attuazione delle regole.

Legislazione a prova di futuro

Con questa legge, l’Europa intende affermarsi come leader mondiale nel settore dell’IA, promuovendo uno sviluppo etico, sostenibile e orientato alle persone di questa tecnologia. Al tempo stesso, l’Europa intende stimolare l’innovazione e la competitività delle sue imprese, in particolare delle piccole e medie imprese, offrendo loro un quadro chiaro e armonizzato per operare nel mercato unico. Infine, l’Europa intende rafforzare la fiducia e l’accettazione sociale dell’IA, garantendo ai cittadini e ai consumatori i massimi livelli di protezione e di partecipazione.