Di recente sono molti gli occhi puntati sull’Ai Act. E i motivi sono tanti. Alcuni di questi riguardano la necessità di regolare l’Intelligenza Artificiale. Non nel suo utilizzo specifico. Bensì più nella gestione dei dati personali e della privacy. Così come la protezione dei diritti degli utenti.
Da questo bisogno nasce proprio l’Artificial Intelligence Act. Cioè un provvedimento a livello europeo. Questo prevede una maggiore regolamentazione dell’intelligenza artificiale. E allo stesso tempo una migliore tutela della privacy. Di utenti e aziende.
Come funziona e cos’è l’Ai Act nello specifico? Abbiamo dedicato una guida completa all’argomento. In questo modo puoi approfondire cosa contiene l’atto europeo. E come può aiutare gli utenti e i brand.
In pochi punti:
Cos’è l’Ai Act?
Per capire cos’è l’Ai Act una buona idea è leggere la definizione ufficiale. Cioè una proposta di legge a livello europeo. Lo scopo è quello di regolamentare l’intelligenza artificiale. O meglio:
L’AI Act è una proposta di legge europea sull’intelligenza artificiale (IA). La prima legge sull’IA da parte di un importante regolatore in qualsiasi parte del mondo. La legge assegna le applicazioni dell’IA a tre categorie di rischio. In primo luogo, le applicazioni e i sistemi che creano un rischio inaccettabile, come il punteggio sociale gestito dal governo del tipo utilizzato in Cina, sono vietati. In secondo luogo, le applicazioni ad alto rischio, come uno strumento di scansione del curriculum vitae che classifica i candidati, sono soggette a specifici requisiti legali. Infine, le applicazioni non esplicitamente vietate o elencate come ad alto rischio sono in gran parte lasciate non regolamentate.
artificialintelligenceact.eu
A cosa serve l’Artificial Intelligence Act?
In primis, l’obiettivo principale dell’Ai Act è proteggere i diritti dei cittadini. Dunque garantire che chiunque sviluppi un’app di intelligenza artificiale adotti un approccio specifico. Cioè incentrato sull’essere umano. E non sul risultato prodotto dalla macchina.
Tutto questo si traduce in diversi elementi pratici. Ad esempio coloro che sviluppano prodotti di IA devono adottare regole e normative previste. Questo affinché non vengano violati i diritti dei cittadini. Ad esempio il diritto di privacy e tutela dei dati personali. Inoltre un altro scopo è rendere più trasparente la comunicazione all’utente. Informandolo su come i dati vengono utilizzati.
Tutto ciò fa sì che le aziende sviluppino in modo più consapevole questi strumenti. Ad esempio prevenendo delle discriminazioni. O ancora, regolando l’uso che viene fatto dell’intelligenza artificiale.
Come funziona?
Sicuramente l’AI Act è una legge piuttosto ampia. Innanzitutto regolamenta chiunque fornisca un servizio che utilizza l’IA. Infatti copre anche i sistemi in grado di generare diversi output. Alcuni esempi? Contenuti, previsioni, raccomandazioni o decisioni.
In aggiunta a questo, la legge prende in considerazione anche l’IA utilizzata dal settore pubblico. Quindi anche dalle forze dell’ordine. Perciò interessa tutti coloro che usano i sistemi di IA. E che interagiscono con gli esseri umani. Persino se utilizzati a scopo di sorveglianza.
Tutti questi soggetti hanno così l’imposizione di rispettare degli obblighi di trasparenza. Le aziende così come i governi.
“Dovremmo sfruttare appieno i vantaggi dell’AI e incoraggiarne l’adozione in Europa. Assicurandoci nel contempo che i diritti fondamentali siano protetti alla luce dei suoi rischi intrinseci. “
Ivan Bartoš, Primo ministro della Czech Deputy.
Perché è importante
I motivi per cui è importante l’Ai Act sono diversi. In primis, le applicazioni dell’intelligenza artificiale (IA) sono numerose. E molte di queste influenzano ciò che l’utente vede online. Quindi prevedono quali contenuti potrebbero interessare di più. Nel farlo l’IA analizza molti dati. E questi servono ad esempio per personalizzare gli annunci pubblicitari. Tutto ciò fa sì che questo tool possa influenzare eccessivamente molte parti della vita dell’utente.
Per questo motivo, l’Ai Act si ispira al Regolamento generale sulla protezione dei dati (GDPR) dell’UE. Infatti ha lo scopo anche di diventare uno standard globale. Dunque questa legge è fondamentale anche per dare un esempio. E fare sì che l’IA abbia un impatto positivo. E non diventi uno strumento negativo.
La sua importanza è dimostrata anche dal seguito internazionale. Ad esempio alla fine di settembre 2021, il Congresso del Brasile ha approvato un disegno di legge simile. Cioè una norma che crea un quadro giuridico per l’intelligenza artificiale. Tuttavia deve essere ancora approvata dal Senato.
Quali sono le regole stabilite nell’Ai Act?
Senza dubbio, l’AI Act stabilisce regole decisive. Soprattutto per garantire che l’IA sia utilizzata in modo sicuro, responsabile ed etico. Tra le regole stabilite ci sono:
- Norme specifiche per le applicazioni di IA ad alto rischio. Ad esempio in campo medico o per la selezione del personale. Queste aree sono soggette a norme più rigorose. Lo scopo è garantire che siano utilizzate in modo “sicuro ed etico“.
- L’obbligo per le aziende di fornire informazioni chiare e trasparenti. Ad esempio sul modo in cui l’IA viene utilizzata. Ciò significa che le aziende dovranno informare gli utenti. Su come i loro dati vengono utilizzati. Il tutto per assicurare che l’IA non venga utilizzata per discriminare le persone. In base alla loro età, genere o etnia.
- Obblighi di trasparenza per l’IA a scopo di sorveglianza. Ciò significa che le autorità che ne fanno usano dovranno essere trasparenti. In particolare riguardo ai dati che raccolgono. E come intendono utilizzarli.
- Inoltre l’AI Act stabilisce requisiti di formazione e competenza. Per coloro che sviluppano, utilizzano e gestiscono l’intelligenza artificiale.
- La creazione di un sistema di certificazione. Questo permette di dimostrare che le applicazioni di IA rispettano tutte le norme dell’AI Act. Rendendo così più semplice per l’utente riconoscere le piattaforme e i prodotti affidabili.
- Infine l’istituzione di un’autorità europea per l’intelligenza artificiale. Questa ha il compito di garantire l’attuazione della legge. Perciò anche di monitorare l’uso dell’IA in Europa.
I pilastri su cui si basa l’Ai Act
L’Ai Act si propone di affrontare problemi specifici legati all’uso dell’intelligenza artificiale. Questi riguardano:
- L’etica;
- La trasparenza;
- La disinformazione.
Cioè tre aspetti che possono presentarsi nell’uso degli algoritmi di IA. Invece grazie a questa legge i governi possono controllare la sicurezza e la legalità di questi sistemi. Allo stesso tempo invece i privati sanno qual è la gestione dei propri dati.
- Quindi il primo aspetto è l’etica. Uno degli usi proibiti previsti dall’Ai Act è il social scoring, ovvero l’assegnazione di punteggi sociali alle persone. Così come il loro monitoraggio e la discriminazione in base al punteggio di ciascuno. Questa misura è stata introdotta per prevenire l’introduzione di sistemi di controllo sociale. Utilizzati ad esempio in Cina.
- Il secondo aspetto dell’Ai Act riguarda la trasparenza. Infatti, molte tecnologie basate su IA sono sviluppate fuori dall’Europa. Perciò seguono norme e standard diversi rispetto a quelli europei. Come anticipato, questa legge si propone di regolamentare questo aspetto. Dunque di evitare conflitti legali soprattutto per le Big Tech. Cioè problemi che minano potenzialmente i diritti dei cittadini dell’UE.
- Infine il terzo aspetto riguarda la disinformazione. La legge prevede così norme specifiche per i sistemi di IA che imitano il linguaggio umano. E che producono testi e conversazioni in tempo reale, come ChatGPT. Questi sistemi di machine learning creano problemi. Sia a livello etico che di trasparenza. Tuttavia il pericolo più grosso secondo l’UE rimane la diffusione della disinformazione. Per questo, l’Ai Act impone di avvertire l’utente quando il contenuto che gli viene proposto è stato generato da un algoritmo. In questo modo si previene la diffusione di opinioni infondate. Così come di pregiudizi e notizie false.
Quali sono i rischi?
Secondo l’Ai Act sono previsti diverse tipologie di rischio. Molte di queste sono collegate al rischio di incorrere nei bis umani nei sistemi di intelligenza artificiale. Cioè quei comportamenti che permettono all’umano di giudicare altro individuo o una situazione. Quindi nel caso dell’IA si tradurrebbero in errori gravi, basati su una forma di pregiudizio.
Infatti per questo motivo l’Ai Act individua quattro gradi diversi di rischio. Tutti legati al bis cognitivo dell’essere umano riportato in IA.
- Inaccettabile. Cioè quelle forme bias che includono social scoring e tecniche subliminali. Tutti elementi vietati dai sistemi di identificazione biometrica.
- Alto rischio. Dunque quelle piattaforme legate al trasporto, all’educazione, all’occupazione e al welfare. In questo caso si tratta di una “valutazione di conformità“. Per questi tipi la legge prevede che la Commissione Europea crei un database accessibile al pubblico. Garantendo anche la massima trasparenza
- Rischio limitato. Ad esempio quando un utente interagisce con una chatbot. In questo caso deve sapere che sta entrando con una macchina. E non con un operatore via chat. In questo modo decide se procedere.
- Rischio minimo. Includono ancora la maggior parte dei sistemi di intelligenza artificiale usati oggi. Possono riguardare videogiochi, spam o annunci.
Invece quali sono le soluzioni?
Sicuramente l’Ai Act prevede diverse strategie. Soprattutto per la regolamentazione dell’intelligenza artificiale in Europa. Queste mirano a garantire un uso etico e trasparente. Nonché sicuro per privati e aziende.
- Tra queste strategie c’è un approccio incentrato sulla persona. Cioè al centro ci sono in primis l’utente, la persona e i diritti umani. Quindi è fondamentale la dimostrazione che prodotti e servizi basati sull’IA non ledano le persone. Perciò non è possibile discriminare o dare accesso a disinformazione. Quindi una prima strategia è rendere l’intelligenza artificiale uno strumento. Non un mezzo negativo.
- Un altro approccio riguarda un aspetto di sicurezza. Di conseguenza aggiunge anche un elemento di affidabilità. Dunque si impongono degli standard di sicurezza. Così da ridurre il rischio e da non rendere l’IA una minaccia. Piuttosto in questo modo si trasforma in opportunità di miglioramento.
- Concludendo, un approccio lo abbiamo già anticipato. E riguarda la classificazione del rischio. Quindi il classificare le piattaforme di AI secondo diversi requisiti. Conseguentemente, una piattaforma ad elevato rischio viene sottoposta a maggiori e più rigorosi controlli.
Perciò l’Ai Act include diversi elementi. Tuttavia il focus è sempre su: utente, sicurezza, affidabilità. Queste tre parole d’ordine sono alla base di un nuovo meccanismo. Lo scopo è trasformare appunto l’intelligenza artificiale in una risorsa sicura. E non di renderla una minaccia.
Quando andrà in vigore?
Sono diversi i passaggi per l’entrata in vigore dell’Ai Act. Al momento però si è raggiunto un traguardo importante. Cioè l’approvazione della relazione del Parlamento Europeo sulla proposta. La relazione è stata approvata con una larga maggioranza di voti a favore.
La proposta verrà nuovamente votata alla prossima sessione plenaria dell’Eurocamera. Questa è in programma tra il 12 e il 15 giugno. L’obiettivo è quello di dare il via libera entro la fine della legislatura. Perciò nella primavera del 2024.
Per rimanere in aggiornamento su altre tematiche simili visita il nostro blog. Pubblichiamo spesso contenuti sul mondo digitale. News così come guide e suggerimenti. In questo modo non ti perdi alcuna novità!