I bollettini di House of Data Imperiali sono degli estratti delle Puntate del Servizio di Informazione GDPR (SIG), a cura dell’Avv. Rosario Imperiali d’Afflitto.

Il SIG è fruibile tramite abbonamento.

Convenzione Consiglio d’Europa sull’IA

A seguito di due anni di lavori – arco di tempo abbastanza limitato per un trattato internazionale – il 17 maggio 2024, durante la riunione annuale del Comitato dei Ministri del Consiglio d’Europa, è stata approvata la convenzione sull’intelligenza artificiale (“IA”), primo trattato internazionale legalmente vincolante in materia di IA.

La Convenzione è composta di 36 articoli, raggruppati in 8 capitoli principali:

I.  Disposizioni generali

II.  Obblighi generali

III.  Principi relativi alle attività del ciclo di vita dei sistemi di intelligenza artificiale

IV.  Rimedi

V.  Valutazione e mitigazione dei rischi e degli impatti negativi

VI.  Attuazione della Convenzione

VII. Meccanismo di verifica e cooperazione

VIII. Clausole finali.

Sintesi

Di seguito una sintesi dei temi principali affrontati dalla Convenzione quadro.

Fonti

Per l’adozione della Convenzione quadro sono stati presi in considerazione vari strumenti giuridici e politici internazionali sull’intelligenza artificiale, tra cui la Dichiarazione e la Raccomandazione del Comitato dei Ministri del Consiglio d’Europa sui processi algoritmici e relativi impatti sui diritti umani, i Principi dell’IA dell’OCSE nonché il Regolamento (UE) sull’IA (“AI Act”).

Entrata in vigore e adesione

La Convenzione entra in vigore dopo l’apertura per la firma a Vilnius (Lituania) il 5 settembre 2024, in occasione della conferenza dei ministri della giustizia.

Per l’effettiva entrata in vigore occorrono almeno 5 ratifiche, di cui almeno tre ad opera di Stati membri del Consiglio.

L’adesione, oltre a includere i 46 Stati membri del Consiglio d’Europa è ammessa anche riguardo a paesi non europei.

Ambito applicativo

Il trattato, che si applica sia al settore privato che a quello pubblico, stabilisce un quadro giuridico volto a garantire il rispetto dei diritti umani, dello stato di diritto e degli standard legali democratici nell’uso dei sistemi di intelligenza artificiale per l’intero ciclo di vita dei sistemi: progettazione, sviluppo, uso e dismissione dei sistemi di IA. Esso facilita l’attuazione efficace degli obblighi esistenti di fronte alle sfide poste dall’IA.

Sono escluse dal suo ambito applicativo le attività legate alla sicurezza nazionale le quali, comunque, devono rispettare il diritto internazionale e i valori democratici. In sintesi, la Convenzione mira a garantire che l’uso dei sistemi di IA avvenga sempre in modo responsabile, nel senso di garantire che i sistemi di intelligenza artificiale non siano utilizzati per minare le istituzioni e i processi democratici. Le vittime di violazioni dei diritti umani legate ai sistemi di IA devono poter disporre di rimedi legali. In presenza di rischi di violazione dei diritti umani, gli Stati possono agire con moratorie o divieti riguardo alla loro implementazione.

Valutazione del rischio e monitoraggio

La Convenzione – come peraltro l’AI Act dell’UE – adotta un approccio basato sul rischio sottolineando la considerazione delle possibili conseguenze negative.

Il trattato stabilisce un meccanismo di monitoraggio attraverso una Conferenza delle Parti (cioè, degli Stati aderenti) e richiede a ciascuna Parte di creare un meccanismo di controllo indipendente per garantirne la conformità.

Inoltre, promuove la consapevolezza pubblica, il dibattito informato e le consultazioni multistakeholder sull’uso appropriato della tecnologia IA.

In sintesi, le Parti devono

  • garantire l’accountability per gli impatti negativi,
  • assicurare che i sistemi di IA rispettino l’uguaglianza (inclusa l’uguaglianza di genere, misure antidiscriminazione e diritti alla protezione dei dati),
  • offrire rimedi legali per le vittime di violazioni dei diritti umani legate ai sistemi di IA
  • stabilire garanzie procedurali informando gli individui sulla loro interazione con i sistemi di IA.

Continua…

Per continuare a leggere questo articolo devi essere abbonato al Servizio di Informazione GDPR.

Sei già abbonato?

Abbonati al SIG

Scopri gli abbonamenti

Data Hub

Scopri di più

Iscriviti al bollettino

Compila il form