UE AI ACT

Raggiunto un accordo su un disegno di legge per garantire che l’intelligenza artificiale in Europa sia sicura, rispetti i diritti fondamentali e la democrazia, consentendo alle imprese di espandersi.

I deputati del Parlamento Europeo hanno emanato un accordo politico con il Consiglio che mira a proteggere le persone, la democrazia, lo Stato di diritto e la sostenibilità ambientale dall’AI ad alto rischio, promuovendo al contempo l’innovazione per rendere l’Europa leader nel settore. Le norme stabiliscono obblighi in base ai rischi potenziali e al livello d’impatto.

Stati Uniti, Cina ed India sono terribilmente avanti a livello d’informatica ed investono miliardi di dollari nello sviluppo di hardware e software sempre più potenti. Le professioni STEM hanno bisogno di essere formate e specializzate per colmare il gap, ma l’Europa è un gigante economico con un mercato molto ambito e non c’è tempo da perdere dopo i progressi di ChatGPT e del recente lancio di Gemini di Google. L’unica risorsa rapida a disposizione dell’Unione Europea per contrastare l’uso indiscriminato dell’AI è la legge.

Le persone hanno ancora troppo le idee confuse a proposito dell’Intelligenza Artificiale (AI). La maggior parte degli individui pensa di avere a che fare solo con automatismi senza interazione umana. In realtà poche istituzioni hanno programmi così evoluti, ma anche questi sono passati dalla fase di preparazione iniziale definita da programmatori umani e dalla verifica finale, ancora una volta umana.

Online esistono servizi di recruitment (quasi tutti in lingua inglese) che inviano dati sensibili ad impiegati collegati da tutto il mondo per etichettare audio, foto e video validando le informazioni date in pasto agli algoritmi di machine learning.

Signora seduta su WC ripresa da un'aspirapolvere IoT

Ricordate l’immagine diffusa di una donna ripresa in bagno dal suo modello di aspirapolvere IoT? Le informazioni private girano apertamente in rete.

Per capire le logiche del’AI è opportuno concentrarsi sugli interessi: denaro e potere. L’AI dà un incredibile potere perché elabora velocemente milioni d’informazioni traendone trend ossia indicazioni utili su orientamenti di spesa, investimenti, comportamenti tipici, connessioni fra utenti. Vi consigliamo di rileggervi l’intervista a Paloma Llaneza, avvocatessa spagnola specializzata in tecnologia, sui pregiudizi degli algoritmi.

I relatori dell’AI l’italiano Brando Benifei ed il rumeno Dragos Tudorache

Torniamo a quanto stabilisce l’AI Act i cui correlatori sono l’italiano Brando Benifei ed il rumeno Dragos Tudorache.

Riconoscendo la potenziale minaccia ai diritti dei cittadini e alla democrazia rappresentata da alcune applicazioni dell’AI, i co-legislatori hanno convenuto di vietare:

  • sistemi di categorizzazione biometrica che usano caratteristiche sensibili (es. convinzioni politiche, religiose, filosofiche, orientamento sessuale, razza);
  • raccolta non mirata d’immagini facciali da Internet o filmati CCTV per creare database di riconoscimento facciale;
  • riconoscimento delle emozioni sul posto di lavoro e nelle istituzioni educative;
  • punteggio sociale basato sul comportamento sociale o sulle caratteristiche personali;
  • sistemi di intelligenza artificiale che manipolano il comportamento umano per aggirare il loro libero arbitrio;
  • l’utilizzo dell’intelligenza artificiale per sfruttare le vulnerabilità delle persone (a causa della loro età, disabilità, situazione sociale o economica).

Esenzioni dall’applicazione della legge

I negoziatori hanno concordato una serie di garanzie ed eccezioni limitate per l’uso dei sistemi di identificazione biometrica (RBI) in spazi accessibili al pubblico per scopi di contrasto, soggetti a previa autorizzazione giudiziaria e per elenchi di reati rigorosamente definiti. L’RBI “post-remoto” verrebbe utilizzato rigorosamente nella ricerca mirata di una persona condannata o sospettata di aver commesso un reato grave.

L’RBI “in tempo reale” rispetterebbe condizioni rigorose e il suo utilizzo sarebbe limitato nel tempo e nel luogo, allo scopo di:

  • ricerche mirate delle vittime (sequestro, tratta, sfruttamento sessuale),
  • prevenzione di una minaccia terroristica specifica e attuale, o
  • la localizzazione o l’identificazione di una persona sospettata di aver commesso uno dei reati specifici menzionati nella norma (ad esempio terrorismo, tratta, sfruttamento sessuale, omicidio, rapimento, stupro, rapina a mano armata, partecipazione a un’organizzazione criminale, reati ambientali).

Obblighi per i sistemi ad alto rischio

Per i sistemi di AI classificati come ad alto rischio (a causa del loro significativo potenziale danno alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo Stato di diritto), sono stati concordati obblighi chiari. Gli eurodeputati sono riusciti ad includere, tra gli altri requisiti, una valutazione d’impatto obbligatoria sui diritti fondamentali, applicabile anche ai settori assicurativo, bancario ed ai sistemi impiegati per influenzare l’esito delle elezioni e il comportamento degli elettori.

I cittadini potranno presentare reclami sui sistemi di intelligenza artificiale e ricevere spiegazioni sulle decisioni che incidono sui loro diritti.

Misure a sostegno dell’innovazione e delle PMI

I deputati si sono impegnati per garantire che le aziende, in particolare le PMI (Piccole Medie Imprese), possano sviluppare soluzioni d’intelligenza artificiale senza indebite pressioni da parte dei giganti del settore. A tal fine, l’accordo promuove i cosiddetti sandbox (spazi virtuali dove software o codici nuovi o non testati possano essere eseguiti in maniera sicura, ndr) normativi e test nel mondo reale, istituiti dalle autorità nazionali per incrementare e formare un’intelligenza artificiale innovativa prima del collocamento sul mercato.

Entrata in vigore

Il testo concordato dovrà essere adottato formalmente sia dal Parlamento che dal Consiglio per diventare legge dell’UE.

Sanzioni 

Il mancato rispetto delle norme può portare a sanzioni che vanno da 35 milioni di euro o il 7% del fatturato globale a 7,5 milioni o l’1,5% del fatturato, a seconda della violazione e delle dimensioni dell’azienda.

Osservazioni:

I database finora raccolti che fine faranno? Le decisioni prese da banche, assicurazioni, università, sanità sulla base d’informazioni acquisite con vari sotterfugi più o meno legali (tipo clausole di contratti impossibili da comprendere per lunghezza, tecnicismi e caratteri tipografici volutamente piccoli o durante emergenze sanitarie gestite in modo improvvido) per quanti anni produrranno effetti?

I vari cablaggi (telefonici, fibra e le reti elettriche) del vecchio continente non dovrebbero essere solo in mano ad organizzazioni europee per salvare la sovranità delle informazioni dei cittadini, delle ricerche scientifiche e di altri dati strategici per le diverse sicurezze nazionali?

La tecnologia va usata e per ciò bisogna conoscerla.

In Italia sarebbe auspicabile insegnare il coding (programmazione) fin dalle elementari contribuendo alla formazione di persone che non usino lo smartphone, WhatsApp e l’aspirapolvere con telecamere anche in bagno. O che almeno sappiano che sono ripresi ed ascoltati.

 

RIPRODUZIONE RISERVATA – © 2023 SHOWTECHIES – Quando la Tecnologia è spettacolo™

Immagini: Parlamento Europeo

Commenta per primo

Lascia un commento

L'indirizzo email non sarà pubblicato.


*