L’INTELLIGENZA ARTIFICIALE IN UNIONE EUROPEA

L’intelligenza artificiale (IA) è un ramo dell’informatica volto alla programmazione e progettazione di sistemi hardware e software che permettono di dotare le macchine di caratteristiche considerate tipicamente umane. 

Si tratta di sistemi grazie ai quali le macchine possono compiere azioni e ragionamenti complessi, imparare dagli errori, e svolgere funzioni fino ad oggi esclusive dell’intelligenza umana. 

 

In poche parole, l’IA permette alle macchine di funzionare come gli esseri umani, mettendo in atto i suoi stessi ragionamenti e meccanismi. 

Mano robotica e mano umana che si sfiorano

Fonte: foto di Tara Winstead su pexels.com

 

Per il suo scopo e funzionamento, l’intelligenza artificiale comporta inevitabilmente un cambiamento della società ed una sua maggiore digitalizzazione. 

 

RISCHI E BENEFICI DELL’IA

 

L’IA può apportare differenti benefici alla nostra società, per diversi target e in diversi settori, e in tanti modi l’ha già fatto. 

 

È grazie ad essa, infatti, che abbiamo a disposizione navigatori o traduttori, semplici strumenti che facilitano e velocizzano alcuni aspetti della nostra vita. Così come ha permesso di sviluppare dei motori di ricerca più intuitivi, dei nuovi strumenti medici, dei nuovi metodi di prevenzione di crimini. 

Per quanto concerne i beni e servizi, l’IA permette di facilitarne e migliorarne la produzione, ed altresì l’offerta, aiutando contemporaneamente imprese, cittadini e Stato. Potrebbe inoltre essere d’aiuto alla democrazia, permettendo un più facile accesso alle informazioni ed assicurando una maggiore trasparenza. 

 

Tuttavia, per quanto l’intelligenza artificiale possa migliorare la nostra vita, comporta anche diversi rischi, che sono il motivo principale per la quale è necessaria una buona regolamentazione della stessa. 

tastiera computer e schermo con codice html

Fonte: foto di Rahul Pandit su pexels.com

 

Tali rischi derivano innanzitutto da una sua manipolazione. L’IA, infatti, ha bisogno di essere programmata, e questo processo viene naturalmente effettuato da una persona, che potrebbe intenzionalmente influenzare la programmazione. Questo comporterebbe molti rischi tanto per la sicurezza, quanto per la democrazia e per la tutela dei diritti delle persone. 

 

Ne consegue che sia altresì necessario comprendere, nei casi in cui una macchina compia un reato, chi ne debba essere giudicato responsabile, se l’errore debba essere imputato alla macchina o alla persona che l’ha programmata e dunque azionata. 

 

Una grande sfida è infine quella di trovare un equilibrio tra il rischio di sottoutilizzare l’intelligenza artificiale, perdendo le opportunità che essa offre, e quello di sovrautilizzarla.

 

Risulta dunque utile e necessario creare una normativa che permetta di regolare l’uso dell’IA e tutti gli aspetti che la riguardano, in modo da utilizzarla nella quantità e nei modi corretti, limitando in tal modo i possibili rischi.

 

LA REGOLAMENTAZIONE DELL’UNIONE EUROPEA

 

La politica dell’Unione Europea in ambito tecnologico in generale si muove su due linee: 

  • l’incentivazione e lo sviluppo tecnologico, tramite investimenti pubblici e privati;
  • l’adattamento delle tecnologie alle esigenze della persona e al rispetto dei suoi diritti fondamentali. 

 

Anche in questo caso, dunque, l’UE ha dato vita ad una strategia che promuove la cooperazione degli Stati membri e la creazione di una serie di norme che permettano di dar vita ad un’intelligenza artificiale “umanocentrica”.

bandiera Unione Europea

Fonte: foto di Dušan Cvetanović su pexels.com

 

Analizziamo dunque gli step dell’Unione Europea per la regolamentazione dell’AI.

 

Aprile 2018 

La Commissione presenta una Comunicazione per delineare una Strategia Europea sull’Intelligenza Artificiale che definisce gli obiettivi in materia. Essi sono principalmente tre: 

  • incrementare l’uso dell’IA in ambito europeo a livello trasversale; 
  • assicurarne un uso appropriato eticamente e giuridicamente; 
  • prepararsi ai cambiamenti socioeconomici che possono derivarne. 

 

Dicembre 2018 

La Commissione e gli Stati Membri adottano il Piano Coordinato sull’Intelligenza Artificiale, aimed at strengthening synergies between states and European institutions and promoting the adoption by the former of appropriate national strategies on AI.

 

Febbraio 2020 

La Commissione presenta il Libro Bianco sull’Intelligenza Artificiale, finalizzato tanto a sostenere l’adozione dell’IA, quanto ad affrontare i rischi connessi.

 

Aprile 2021 

La Commissione approva un Regolamento volto alla promozione dell’IA e contenente delle rigide regole per ridurre al massimo i suoi rischi. A tal fine, è stata creata una classifica di rischio in base alla quale vengono previste misure di attenuazione o divieti. 

 

In ordine di gravità, troviamo: 

  • i sistemi a basso rischio, per i quali sono previsti soltanto requisiti minimi di trasparenza.

 

  • i sistemi ad alto rischio, per i quali sono previsti sia dei requisiti tecnici specifici (utilizzo di set di dati di alta qualità, istituzione di una documentazione adeguata per migliorare la tracciabilità, condivisione delle informazioni, progettazione e attuazione di misure di sorveglianza umana e conseguimento degli standard di robustezza, sicurezza e precisione), sia l’istituzione di un sistema di gestione dei rischi.

 

  • i sistemi vietati, ritenuti incompatibili con i principi dell’UE e i diritti fondamentali dell’uomo contenuti nella Carta europea. Tali sono i sistemi che: utilizzano tecniche subliminali o sfruttano le vulnerabilità di una persona per distorcerne il comportamento o causarle danni fisici o psicologici; attribuiscono alle persone un punteggio sociale da cui dipendono trattamenti pregiudizievoli o sfavorevoli; consentono l’identificazione biometrica remota (salvo casi eccezionalmente autorizzati dalla legge).

 

L’articolo 29 del Regolamento fissa inoltre gli obblighi a cui gli utenti dei sistemi di IA sono tenuti (seguire le istruzioni, garantire la pertinenza rispetto al fine previsto, monitorare il funzionamento, sospendere l’uso in caso di incidente, conservare i log generati).

 

Per garantire l’attuazione del Regolamento e la cooperazione, gli Stati sono tenuti all’istituzione di autorità nazionali competenti, mentre a livello europeo è previsto un Comitato europeo per l’intelligenza artificiale. Quest’ultimo si pone altresì come ponte tra gli Stati e la Commissione.

 

Sono infine previsti un sistema di valutazione di conformità ex ante dei sistemi ed un meccanismo sanzionatorio in caso di violazione delle norme. 

 

CONCLUSIONI

 

L’intelligenza artificiale ha subito un forte sviluppo negli ultimi anni ed è destinata a continuare ad espandersi a livello europeo e mondiale in diversi settori. 

 

È ancora molto il lavoro da fare in Europa in termini di investimenti, ma vi è una buona base di partenza e una buona regolamentazione a sostegno di uno sviluppo dell’IA che sia eticamente e giuridicamente appropriato. 

 

Articolo scritto originariamente per Projects for Europe.

ARTIFICIAL INTELLIGENCE IN THE EUROPEAN UNION

Sara Coppolecchia 

 

FONTI

 

https://ec.europa.eu/info/strategy/priorities-2019-2024/europe-fit-digital-age/excellence-trust-artificial-intelligence_it

https://www.altalex.com/documents/news/2022/06/29/regolamento-europeo-intelligenza-artificiale

https://www.europarl.europa.eu/news/it/headlines/society/20200827STO85804/che-cos-e-l-intelligenza-artificiale-e-come-viene-usata

https://www.europarl.europa.eu/RegData/etudes/STUD/2020/641547/EPRS_STU(2020)641547_EN.pdf

https://www.europarl.europa.eu/news/it/headlines/society/20200918STO87404/quali-sono-i-rischi-e-i-vantaggi-dell-intelligenza-artificiale

https://eur-lex.europa.eu/legal-content/IT/TXT/?uri=CELEX%3A52021PC0206

https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_it.pdf

https://eur-lex.europa.eu/legal-content/IT/TXT/HTML/?uri=CELEX:52018DC0237&from=EN

https://eur-lex.europa.eu/legal-content/IT/TXT/HTML/?uri=CELEX:52018DC0795&from=EN

Skip to content