EDF ha lanciato la propria guida “Una legge sull’intelligenza artificiale inclusiva della disabilità: una guida per monitorare l’implementazione nel tuo paese”, durante un webinar il 15 ottobre.
Il webinar ha riunito attivisti per i diritti digitali e sostenitori della disabilità per discutere su come garantire un’intelligenza artificiale (AI) inclusiva della disabilità:
– L’AI Act è un regolamento europeo sull’intelligenza artificiale ed è il primo regolamento completo sull’IA.
– Le organizzazioni nazionali e gli attivisti della società civile devono formare forti collaborazioni in tutti i paesi per fare pressione sulle autorità affinché creino leggi funzionali sull’intelligenza artificiale che integrino la legge europea.
– I sostenitori devono diffidare di alcune disposizioni, come le esenzioni per le forze dell’ordine e per i sistemi pericolosi e della collaborazione di alcuni gruppi che distolgono l’attenzione dalle pressanti preoccupazioni sui diritti umani.
L’incontro è stato aperto da Maureen Piggot, membro del Comitato Esecutivo EDF, che ha presentato gli aspetti positivi e negativi dell’attuale tecnologia AI.
Ha condiviso alcuni esempi di come l’AI può essere utilizzata per potenziare la tecnologia assistiva: ad esempio assistenti vocali personali e su come, grazie alle numerose innovazioni, si possono supportare le persone con disabilità nel rendere le informazioni accessibili o fornire traduzioni in tempo reale. Ha poi delineato i rischi, compreso il modo in cui l’intelligenza artificiale può amplificare la discriminazione (ad esempio utilizzando l’intelligenza artificiale per analizzare le espressioni facciali) e i sistemi di intelligenza artificiale inaccessibili.
Ha inoltre spiegato come la legge sull’intelligenza artificiale dell’UE sia un buon inizio per limitare i rischi dei sistemi di intelligenza artificiale e l’esclusione delle persone con disabilità, ma deve essere ben applicata dagli Stati membri. La guida pubblicata da EDF aiuterà i sostenitori e gli attivisti a fare pressione sulle autorità affinché creino leggi forti.
Kave Noori, il responsabile delle politiche sull’intelligenza artificiale, ha affermato che lo scopo di questa guida è spiegare la legge UE sull’intelligenza artificiale a chi si occupa quotidianamente di disabilità. La guida mira anche a spiegare come possono sollecitare le autorità nazionali a garantire il rispetto dei diritti delle persone con disabilità.
Ha spiegato che la legge sull’IA classifica i sistemi in diversi livelli di rischio e che i sistemi ad alto rischio devono essere accessibili e utilizzati in modo trasparente.
Kave ha sottolineato come il sostegno da parte di EDF e di organizzazioni per i diritti digitali come European Digital Rights e European Centre for Not-for-Profit Law abbiano contribuito a includere requisiti di accessibilità e trasparenza nella legge sull’intelligenza artificiale. Ha sottolineato l’importanza di estendere questi requisiti obbligatori ai sistemi di intelligenza artificiale “generali” e a basso rischio.
Karolina Iwanska, consulente per lo spazio civico digitale presso il Centro europeo per il diritto no-profit, ha approfondito alcuni aspetti della legge dell’UE sull’intelligenza artificiale e la tempistica per la sua attuazione.
Ha affermato che la maggior parte delle disposizioni della legge entrerà in vigore nell’agosto 2026, quindi ci sono al massimo due anni per influenzare gli sforzi nazionali. Tuttavia, alcuni paesi hanno già preparato una legislazione nazionale.
Ha raccomandato di contattare le istituzioni nazionali per i diritti umani e gli organismi per l’uguaglianza per sostenere che i loro paesi adottino leggi e disposizioni incentrate sui diritti umani. Ha inoltre raccomandato che diversi attori della società civile organizzano e sostengono la creazione di un organo consultivo nazionale per attuare e sostenere l’applicazione delle leggi sull’AI.
Ha messo in guardia contro sistemi pericolosi come l’identificazione biometrica remota come il riconoscimento facciale, l’ampia esenzione della legge per “usi di sicurezza nazionale” e le eccezioni per le forze dell’ordine.
Milla Vidina, consulente politico senior presso la Rete europea degli organismi di parità (Equinet), ha spiegato che l’AI Act è un regolamento sulla protezione dei consumatori con obblighi che cercano di indurre le aziende a comportarsi in modo da impedire loro di violare i diritti umani.
Sebbene gli individui abbiano il diritto di presentare un reclamo ai sensi della legge sull’AI, questo diritto non è molto forte. Ad esempio, non è possibile per un’organizzazione presentare un reclamo per conto di un individuo o supportare una persona nel presentare un reclamo.
La denuncia deve essere presentata da una “parte interessata” identificabile; tuttavia, ciò si scontra con la natura stessa degli algoritmi, dove il danno non può essere facilmente identificato.
Tuttavia, gli organismi per la parità hanno un ruolo speciale ai sensi della legge sull’AI. Gli organismi per l’uguaglianza hanno un mandato speciale per indagare sui sistemi di intelligenza artificiale: hanno il diritto di chiedere alle aziende che utilizzano diverse forme di AI di fornire agli organismi per l’uguaglianza la documentazione su come funziona un algoritmo.
Le organizzazioni di persone con disabilità possono esplorare gli articoli da 77 a 79 per capire chi può aiutarle a far rispettare la legge.
Ella Jakubowska, Head of Policy presso European Digital Rights, ha condiviso l’esempio della coalizione chiamata “AI core group”, una coalizione di organizzazioni europee che proteggono i diritti digitali e i diritti umani che hanno lavorato insieme per influenzare l’AI Act.
Ha spiegato che le organizzazioni per i diritti umani hanno già esperienza sulle questioni interessate dall’AI Act e che spesso la preoccupazione di non avere capacità tecniche può essere superata collaborando con organizzazioni per i diritti digitali e accademici. Ha sottolineato che queste coalizioni possono assumere la forma di un partenariato duraturo come il “gruppo centrale dell’intelligenza artificiale”, oppure possono essere collaborazioni a breve termine su argomenti specifici.
Ha messo in guardia dal collaborare con gruppi che non hanno il loro focus sui diritti o la giustizia. Ad esempio, alcuni gruppi sono molto concentrati su soluzioni estetiche ai problemi dell’intelligenza artificiale senza guardare alle strutture di potere sottostanti, in modi che possono oscurare i problemi reali. Altri hanno affermato che dovremmo concentrarci solo sulla minaccia esistenziale che l’intelligenza artificiale rappresenta per l’umanità, il che può sminuire i problemi reali che le persone affrontano oggi.
La guida è disponibile a questo link in lingua esclusivamente inglese.