fbpx

La Commissione europea presenta a Bruxelles la proposta di nuove regole e azioni con un obiettivo assai ambizioso: trasformare l’Europa nel polo mondiale per un’intelligenza artificiale affidabile. Von der Leyen: standard elevati L’intelligenza artificiale è una fantastica opportunità per l’Europa. E i cittadini meritano tecnologie di cui possono fidarsi. Oggi presentiamo nuove regole per un’Al affidabile. Stabiliscono standard elevati in base ai diversi livelli di rischio”. Lo scrive in un tweet la presidente della Commissione europea, Ursula von der Leyen. “Oggi presentiamo anche un piano coordinato, per delineare le riforme e gli investimenti di cui abbiamo bisogno per garantire la nostra posizione di leader in AI, a livello mondiale. Con quasi 150 miliardi di euro di investimenti digitali – il 20% del budget – Next Generation Eu contribuirà a rafforzare l’eccellenza nell’AI dell’Unione europea”, spiega. 

La proposta per l’intelligenza artificiale affidabile Per farlo, la Commissione ha predisposto il primo quadro giuridico sull’AI mai realizzato in Europa, e un piano –  coordinato con gli Stati membri – per garantire la sicurezza e i diritti fondamentali di cittadini e imprese, che rafforzi, nel contempo, l’adozione dell’AI e gli investimenti e l’innovazione nel settore in tutta l’Ue. “Vogliamo una AI affidabile”, scrive su Twitter la commissaria Margrethe Vestager,  “per la salute, la lotta al cambiamento climatico, la vita di tutti i giorni, se possiamo fidarci che non metta a rischio i nostri diritti fondamentali”, spiegando il senso della proposta I quattro livelli di rischio  Le nuove regole saranno applicate dovunque in Ue, con un approccio basato sul livello di rischio. Rischio inaccettabile: i sistemi basati su intelligenza artificiale considerati una chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone saranno vietati. Sono compresi i sistemi o le applicazioni di AI che manipolano il comportamento umano per aggirare il libero arbitrio degli utenti (ad esempio, giocattoli che utilizzano l’assistenza vocale per incoraggiare i comportamenti pericolosi dei minori) e i sistemi che consentono ai governi di attribuire un “punteggio sociale”. Rischio alto: in questa categoria rientrano sistemi in cui la tecnologia di AI è utilizzata e che saranno soggetti a obblighi rigorosi prima che possano essere immessi sul mercato: Infrastrutture critiche (ad esempio i trasporti), poiché potrebbe mettere a rischio la vita e la salute dei cittadini; Istruzione o formazione professionale, poiché può determinare l’accesso all’istruzione e il percorso professionale della vita di una persona (ad esempio, attribuzione del punteggio degli esami);

Componenti di sicurezza dei prodotti (ad esempio un’applicazione di AI utilizzata nella chirurgia assistita da robot); Occupazione, gestione dei lavoratori e dell’accesso al lavoro autonomo (ad esempio, software di selezione dei curricula per le procedure di assunzione); Servizi pubblici e privati essenziali (ad esempio, lo ‘scoring’ o punteggio del credito che può vedere negato ai cittadini la possibilità di ottenere un prestito); Attività che possono interferire con i diritti fondamentali delle persone (ad esempio, valutazione dell’affidabilità delle prove); Gestione dei migranti, dell’asilo e del controllo delle frontiere (ad esempio, verifica dell’autenticità dei documenti di viaggio); Amministrazione della giustizia e processi democratici (ad esempio, applicazione della legge a una serie concreta di fatti). Ci sono poi i sistemi a rischio limitato, come i chatbot, con specifici obblighi di trasparenza (gli utenti dovrebbero essere consapevoli del fatto che stanno interagendo con una macchina) e i sistemi a rischio minimo: come  applicazioni quali videogiochi o filtri anti spam basati sull’AI. Secondo la  Commissione, la grande maggioranza dei sistemi di AI rientra in questa categoria, quindi il progetto di regolamento non interviene in questo caso. Riconoscimento biometrico rimane un rischio alto

Nessuna messa al bando e neppure moratoria per i sistemi di intelligenza artificiale basati sui dati biometrici dei cittadini, anche se tutti i sistemi di identificazione biometrica remota sono considerati ad alto rischio e soggetti a requisiti rigorosi. Il loro utilizzo in tempo reale ai fini di attività contrasto in spazi accessibili al pubblico è in linea di principio vietato. Sono previste poche eccezioni rigorosamente definite e regolamentate (ad esempio, dove strettamente necessario per cercare un minore scomparso, prevenire una minaccia terroristica specifica e imminente o individuare, localizzare, identificare o perseguire autori o sospettati di un reato grave). In questi casi l’uso è soggetto all’autorizzazione di un organo giudiziario o di un altro organo indipendente, con limiti per quanto riguarda il tempo, la portata geografica e le banche dati. Infine Thierry Breton, Commissario per il Mercato interno, ha ricordato che  “l’AI è un mezzo, non un fine. Esiste da decenni, ma ora sono possibili nuove capacità alimentate dalla potenza di calcolo.

Ciò offre un enorme potenziale in tanti settori diversi tra cui la sanità, i trasporti, l’energia, l’agricoltura, il turismo o la cybersecurity, ma presenta anche una serie di rischi. Le proposte odierne mirano a rafforzare la posizione dell’Europa quale polo globale di eccellenza nell’AI dai laboratori al mercato, a garantire che l’AI in Europa rispetti i nostri valori e le nostre regole e a sfruttare il potenziale dell’AI per uso industriale.”  Il Parlamento europeo e gli Stati membri dovranno adottare le proposte della Commissione con procedura legislativa ordinaria. Una volta adottati, i regolamenti saranno direttamente applicabili in tutta l’Ue.

This div height required for enabling the sticky sidebar
Ad Clicks :Ad Views : Ad Clicks :Ad Views : Ad Clicks :Ad Views :