I bollettini di House of Data Imperiali sono degli estratti delle Puntate del servizio Dati in Primo Piano (DPP), a cura dell’Avv. Rosario Imperiali d’Afflitto.

Il DPP è fruibile tramite abbonamento.

Controlli in tema di intelligenza artificiale

Gli strumenti di intelligenza artificiale (IA) sono al centro dell’attenzione generale, sia per le innumerevoli opportunità che offrono sia per gli impatti che possono causare sugli individui e sulla collettività.

A vari livelli sono state proposte o sono già state emanate regole vincolanti o raccomandazioni e linee guida, volte alla realizzazione di strumenti di IA affidabili e sostenibili.

Inquadramento delle regole

In primo luogo, a livello dell’Unione Europea, vi è la nota proposta di regolamento sull’intelligenza artificiale; con questo atto l’Unione europea intende disciplinare la materia con regole vincolanti su tutto il territorio dell’Unione e in modo orizzontale, cioè non riferito a specifici settori o tecnologie d’uso (cosiddetto “AI Act”). Qualora la proposta completasse l’iter di approvazione nel corso di questa legislatura, sarebbe la prima legge omnibus sulla materia a livello globale.

Dal suo canto il Consiglio d’Europa, tramite il Comitato dei ministri degli esteri dei paesi aderenti a questa istituzione, ha pubblicato la Raccomandazione CM/Rec(2020)1 of the Committee of Ministers to member States on the human rights impacts of algorithmic systems in cui vengono presi in considerazione gli impatti che gli strumenti di IA possono avere sui diritti umani. La Raccomandazione non ha valore giuridico vincolante nei confronti degli Stati ma, come le altre della stessa specie, ha una significativa valenza politica proprio a seguito della sua approvazione da parte dei rappresentanti degli Stati membri del Consiglio.

Anche l’OCSE è intervenuta in materia tramite la Recommendation of the Council on Artificial Intelligence(OECD/LEGAL/0449). La Raccomandazione dell’OCSE fornisce linee guida per lo sviluppo e l’utilizzo etico e responsabile dell’IA. Sottolinea l’importanza della trasparenza, della responsabilità e dell’inclusione nei processi decisionali relativi all’IA. Incoraggia inoltre lo sviluppo di un’IA incentrata sull’uomo, che rispetti i diritti umani e che porti benefici alla società nel suo complesso.

Analoga iniziativa si registra in ambito UNESCO; l’agenzia delle Nazioni Unite ha rilasciato la UNESCO Recommendation on the Ethics of Artificial Intelligence che ricalca sostanzialmente quanto richiamato per la corrispondente iniziativa dell’OCSE.

Infine, il Regolamento generale UE sulla protezione dei dati personali (GDPR) che è applicabile di massima nei confronti di tutti gli strumenti di IA che eventualmente utilizzino dati personali e che prevede specifiche prescrizioni in relazione alle decisioni automatizzate (art. 22, GDPR).

Sviluppi sull’AI Act

Secondo Euractiv, l’iter di approvazione della proposta di AI Act si sarebbe incagliata nell’incontro di venerdì 10 novembre, dopo che i grandi paesi dell’UE hanno chiesto di ritirare l’approccio proposto per i modelli di base. I modelli di base – detti anche “foundation models” – sono quelli addestrati su dati su larga scala con finalità d’uso generale. Questa situazione di stallo potrebbe mettere a rischio la promulgazione della legge in questa legislatura sebbene all’ultimo incontro del trilogo, avvenuto il 24 ottobre, sembrava si fosse raggiunto un consenso all’introduzione di regole per i modelli di base, secondo il metodo a livelli gerarchici: regole più stringenti per i modelli più potenti e con maggiore impatto per la collettività.

Il nodo sui modelli di base sembra allontanare l’intesa tra Parlamento e Consiglio e, sempre secondo Euractiv, «[s]e non si raggiungesse un accordo a dicembre, la presidenza spagnola uscente non avrebbe alcun incentivo a continuare il lavoro a livello tecnico e la prossima presidenza belga avrebbe solo poche settimane per sistemare le questioni in sospeso di un dossier così complesso, prima che il Parlamento europeo si sciolga per le elezioni del prossimo giugno».

Produttore e utilizzatore

Nell’ambito di queste considerazioni, con il termine “produttore” ci si vuole riferire a quel soggetto che realizza lo strumento di IA, indipendentemente dal fatto che esso sia un operatore commerciale la cui attività produttiva sia finalizzata alla commercializzazione dell’IA, oppure che esso sia anche utilizzatore del bene prodotto.

Col termine “utilizzatore”, invece, si intende il soggetto che effettivamente si avvale dello strumento di IA per soddisfare proprie esigenze operative.

Continua…

Per continuare a leggere questo articolo devi essere abbonato al servizio Dati in Primo Piano.

Sei già abbonato?

Abbonati al DPP

Scopri gli abbonamenti

Data Hub

Scopri di più

Iscriviti al bollettino

Compila il form