Paolo Branchini, Dirigente di Ricerca Istituto Nazionale di Fisica Nucleare
L’Unione Europea l’8/12/2023 ha fatto un passo significativo con l’approvazione del primo atto normativo globale sull’intelligenza artificiale, conosciuto come AI Act. Dopo un negoziato che si è protratto per oltre 36 ore, le istituzioni europee hanno raggiunto un accordo che recentemente ha stabilito le restrizioni e le linee guida per lo sviluppo e l’utilizzo di questa tecnologia innovativa, la quale è stata oggetto di intensi dibattiti per le sue implicazioni etiche.
È la prima volta in cui viene varata una legge specifica per definire i confini e stabilire regole nel campo dell’intelligenza artificiale. Al link: https://www.europarl.europa.eu/news/it/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai si può consultare un interessante comunicato stampa che in breve ne prova a descrivere i termini. Questo accordo è stato salutato dalla maggioranza dei commentatori come storico in quanto, nelle intenzioni del legislatore, dovrebbe fissare degli “standard globali (Mensola)” e rappresenta un quadro giuridico unico per lo sviluppo di un’intelligenza artificiale di cui ci si può fidare” (von der Leyen).
La definizione data di AI ed utilizzata nell’AI Act può essere trovata al link:
https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585 01aa75ed71a1.0001.02/DOC_2&format=PDF
Leggendo il primo allegato ci si rende conto quindi di come l’ambizione del regolamento proposto sia quella di applicarsi ad una vastità di metodi che vanno dall’apprendimento automatico ai più classici approcci statistici noti da prima del diciottesimo secolo e che per conseguenza verranno regolamentati.
Lo stesso regolamento cataloga i sistemi AI secondo una piramide del rischio i cui più alti livelli rappresentano rischi inaccettabili (da qui il divieto di realizzazione per quei sistemi) e sistemi ad alto rischio (da qui la necessità per questi sistemi di un forte controllo legislativo per i sistemi che afferiscono a questa classe). Il regolamento inoltre si dovrebbe applicare ex ante. L’atto regolatorio, per avere seguito, necessita naturalmente di sanzioni che possono essere anche rilevanti. Di conseguenza, è plausibile che startup innovative, che per la loro natura hanno a disposizione meno risorse di imprese consolidate, evitino di occuparsi di problematiche che cadono nei “piani alti” della piramide del rischio, come ad esempio la gestione tramite AI di sistemi militari, la ricerca medica e la formazione scolastica.
Un altro elemento che potrebbe limitare lo sviluppo dell’AI in Europa è rappresentato dagli obblighi stringenti previsti per le IA ad alto rischio. Questi sistemi dovranno rispettare criteri di sicurezza, trasparenza, spiegabilità delle decisioni e tracciabilità, con la registrazione in una banca dati UE. Sebbene questi vincoli mirino a garantire un utilizzo sicuro della tecnologia, il loro effetto collaterale potrebbe essere l’aumento dei costi e dei tempi di sviluppo, rendendo difficile per le startup e le piccole imprese competere con le grandi aziende.
Inoltre, il regolamento vieta alcuni sistemi di sorveglianza avanzata, come il riconoscimento facciale in tempo reale negli spazi pubblici (con poche eccezioni), limitando così alcune potenziali innovazioni nel campo della sicurezza e delle smart cities.
Per i modelli generativi di intelligenza artificiale, vengono imposti obblighi di trasparenza: i contenuti generati devono essere chiaramente identificabili, i dataset utilizzati devono essere resi pubblici e devono essere implementati sistemi per prevenire la generazione di contenuti illegali. Anche in questo caso, sebbene lo scopo sia quello di tutelare l’utente, l’effetto potrebbe essere quello di scoraggiare lo sviluppo di nuovi modelli open-source e aumentare i costi di compliance per le aziende europee.
Il regolamento introduce anche il principio della responsabilità per danni derivanti dall’uso di AI, come specificato nelle linee guida ufficiali:
Questo impone agli sviluppatori e ai fornitori di AI di dimostrare la sicurezza e l’affidabilità dei loro prodotti, aumentando ulteriormente il carico regolatorio.
Inoltre, le linee guida pubblicate dalla Commissione Europea sui sistemi di AI vietati (https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act) chiariscono le pratiche considerate inaccettabili, come l’uso di AI per la manipolazione cognitiva, la categorizzazione biometrica basata su dati sensibili e l’uso di sistemi AI per il punteggio sociale. Queste restrizioni, sebbene mirate alla tutela dei diritti fondamentali, potrebbero limitare lo sviluppo di nuove tecnologie, in particolare in ambiti come la personalizzazione avanzata dei servizi o il miglioramento dell’efficienza amministrativa.
Nel caso dei sistemi ad alto rischio, è previsto un forte intervento regolatorio con norme che potrebbero diventare molto costose da ottemperare per startup europee innovative. Il regolamento così concepito sembra indirizzare le startup europee verso applicazioni di interesse piuttosto contenuto, certo non “disruptive”, e quindi non certo verso applicazioni “high risk” “high gain” spesso citate nei bandi di gara europei.
L’effetto potrebbe essere quello di diminuirne l’impatto, favorendo un oligopolio in cui solo grandi compagnie, grazie alle risorse a loro disposizione, possono ottemperare a questi obblighi nel mercato comune europeo.
Nonostante la Commissione Europea abbia annunciato un investimento mirato di 200 miliardi di euro per supportare lo sviluppo dell’IA, questa cifra rischia di non avere un impatto significativo sulle dinamiche di sviluppo. I vincoli imposti dal regolamento europeo sono molto più stringenti rispetto a quelli adottati altrove, rendendo più difficile la crescita di modelli open-source e a basso costo, come ad esempio DeepSeek. Di conseguenza, molte innovazioni potrebbero trovare terreno più fertile fuori dall’Europa.
Nel passato l’UE ha contato sull'”effetto Bruxelles” per globalizzare una normativa unilateralmente imposta dall’Unione Europea esternalizzandola al di fuori dei suoi confini utilizzando la leva economica del mercato con alterni successi. Personalmente, in questo caso, ho dei grossi dubbi che Cina e Stati Uniti seguiranno il nostro esempio a livello normativo. Rischiamo quindi di consegnare integralmente lo sviluppo dei sistemi AI ai nostri competitor, offrendoci solo come mercato.