Log in or Create account

NUMERO 18 - 28/07/2021

Comunicare nell’infosfera. La vulnerabilità della persona digitale

Abstract [It]: Il lavoro si propone di ricercare nel dialogo tra etica e diritto sui temi dell’intelligenza artificiale strumenti capaci di tutelare la persona umana dalle nuove forme di vulnerabilità coniate dalla società digitale. L’ambito specificamente osservato è quello dei processi decisionali automatizzati: qui il diritto alla spiegazione della decisione algoritmica risponde a un principio etico universale ma è anche un diritto in senso giuridico? La risposta fornita è che nel sistema giuridico europeo, alla stregua dell’interpretazione sistematica e assiologica dell’art. 22 del GDPR, quel diritto esiste: una garanzia individuale fondamentale nel processo algoritmico che sia interamente automatizzato e ad “alto rischio” per l’impatto della decisione nella sfera della persona. La conclusione raggiunta nel lavoro è che l’art. 22 GDPR abbia un ruolo cruciale nel governo giuridico della tecnica: incorporare i principi di trasparenza ed “explanibility” nei sistemi decisionali governati dall’IA per assicurare che questi ultimi siano “umano-centrici” e “trustworthy”.

 

Abstract [En]: The individual right to an explanation of an algorithmic individual decision is a universal ethical principle. But is it also a legal right? This Article argues that under European Law that right does exists: a new Data Protection right serving as a transparency and accountability tool in algorithmic decision- making addressed by art. 22 GDPR: solely automated decision-making, having high-risk impact on individual fundamental rights and freedoms. This Article shows that fully automated decisions with significant effects must be made explainable to individuals, allowing them to invoke their rights under the GDPR. The GDPR meant to incorporate the principles of transparency and explainability into AI-governed decision-making systems in order to make them be "human-centered" and "trustworthy".

 

Parole chiave: AI; Machine Learning; Processi decisionali automatizzati; Legibility; Accountability; Explainability; Data protection; Privacy; Democrazia; Trasparenza

Keywords: AI; Machine Learning; Automated Decision making; Legibility; Accountability; Explainability; Data protection; Privacy; Democracy; Transparency

 

Sommario: 1. Etica e diritto dell’IA: una IA umano-centrica. 2. Comprendere la decisione algoritmica. 3. Processo algoritmico e Identità personale. 4. Comunicazione e Design giuridico dell’infosfera.

 

Nel tempo della rivoluzione digitale, il discorso etico sull’intelligenza artificiale sembra avvolgere il mondo non meno di quanto lo abbiano avvolto le ICT. Da Roma alla Cina, dall’UE agli USA, si levano Call for Ethics, Carte e Dichiarazioni di principi cercando di orientare un’impresa naturaliter comune e globale: riprogettare in modo uniforme le infrastrutture tecnologiche del mondo a garanzia di una AI “trustworthy”: “affidabile” per la sua capacità di massimizzare i benefici e prevenire e minimizzare i rischi per l’umanità. Sfogliandole, è forte l’impressione che l’etica stia davvero inverando la sua naturale vocazione universale: nonostante la multiforme diversità delle loro radici culturali, quei documenti parlano un linguaggio a tutti comune - quello dei diritti umani - promettendo un’intesa: il governo etico e giuridico dell’IA al servizio della dignità della persona umana e del benessere dell’umanità. Se, quindi, la comunicazione tra sistemi culturali (e giuridici), anche assai diversi tra loro, è resa possibile, a costituire problema è, invece, quella tra intelligenza artificiale e intelligenza umana, in ragione di una singolare asimmetria: la trasparenza dell’uomo - “datificato” - di fronte alla macchina e, per contro, l’opacità della macchina di fronte all’uomo “letto” dalla macchina. Ciò, a prima vista, potrebbe apparire sorprendente alla stregua della natura informazionale che l’essere umano - un “inforg” al pari delle macchine - condivide con il suo nuovo ambiente vitale: l’infosfera. Da questa prospettiva, sorprende perché apparentemente contraddittoria l’idea che sia un deficit comunicativo a connotare una relazione che, connettendo “organismi informazionali” è, di per sé, essenzialmente comunicativa. A ben guardare, la spiegazione è banale: il codice informazionale con cui le ICT reinterpretano e riscrivono il mondo è autoreferenziale. Ciò ha una ragione evidente: digitalizzare il mondo implica ridefinirlo dal punto di vista della macchina; perché il sistema funzioni, tutto il reale deve essere riducibile a dati operazionali; ad input processabili dalla macchina. Nel “mondo che si fa macchina” questo è un condizionamento sistemico - in certo senso - universale. Come sappiamo, anche l’essere umano vi soggiace, in virtù della scomposizione (e ricomposizione) della sua identità in dati informativi: i dati personali che lo riguardano. Una “ristrutturazione” della persona e della sua identità che condiziona soggettività e cittadinanza nella società digitale: è solo come “organismo informazionale” - infatti - che l’uomo ha accesso all’infosfera. All’autoreferenzialità del codice fa ovvio riscontro l’asimmetria nella distribuzione sociale del potere digitale. La ragione è storica - non logica né irreversibile: nel disallineamento tra il tempo (veloce) dell’evoluzione delle ICT e quello (lento) del diritto, il codice tecnologico ha funzionato come (unica) legge evolutiva della società digitale, generando il suo effetto rivoluzionario: “ciò che è reale è informazionale e ciò che è informazionale è reale”… (segue)



NUMERO 18 - ALTRI ARTICOLI

Execution time: 88 ms - Your address is 3.236.55.22
Software Tour Operator