Log in or Create account

NUMERO 16 - 04/09/2019

 Decisione pubblica e responsabilità dell’amministrazione nella società dell'algoritmo

Il ricorso ad algoritmi informatici per l’assunzione di decisioni che riguardano tanto la sfera pubblica che quella privata è sempre più al centro del nostro modello di società. Ricorrendo ad algoritmi si compiono scelte fondamentali che comportano l’identificazione e la classificazione delle persone e delle loro azioni: gli algoritmi includono o escludono, stabiliscono gerarchie, decidono premi e punizioni. E questo accade tanto nel settore privato che in quello pubblico, dal commercio al lavoro, dalla sanità alla giustizia penale: presiedono ai sistemi di voto e all’erogazione di mutui, decidono il rilascio di carte di credito, il licenziamento di un lavoratore e perfino la libertà personale. La loro crescente centralità ha indotto molti osservatori a definire la nostra come la ‘società dell’algoritmo’. I sostenitori di questi nuovi strumenti di ordine sociale ne rivendicano i guadagni in termini di efficienza e neutralità. In molti campi gli algoritmi promettono di diventare lo strumento attraverso il quale correggere le storture e le imperfezioni che caratterizzano tipicamente i processi cognitivi e le scelte compiute dagli esseri umani, messi in luce soprattutto negli ultimi anni da un’imponente letteratura di economia comportamentale e psicologia cognitiva: se l’essere umano sconta i limiti della sua razionalità limitata ed è preda di emozioni, passioni e scelte spesso irrazionali, l’algoritmo trasforma valutazioni opinabili in una sequenza finita di passaggi logici finalizzati a scelte obiettive e razionali. Le decisioni prese dall’algoritmo assumono così un’aura di neutralità, frutto di asettici calcoli razionali basati su dati. D’altra parte, si è fatta strada una diversa e più critica lettura dei meccanismi del loro funzionamento e dell’impatto che producono sulla società. In reazione ad una descrizione che dipinge l’algoritmo come scientifico, obiettivo e neutrale, fatto di numeri, logica e dati, si sottolinea come il suo impiego comporti in realtà una serie di scelte e di assunzioni tutt’altro che neutre: l’adozione di modelli predittivi e di criteri in base ai quali i dati sono raccolti, selezionati, sistematizzati, ordinati e messi insieme, la loro interpretazione e la conseguente formulazione di giudizi sono tutte operazioni frutto di precise scelte e di valori, consapevoli o inconsapevoli. Gli algoritmi - conclude il ragionamento - operano una serie di scelte tutt’altro che ovvie e scontate, che non possono credibilmente essere descritte come oggettive. Anzi, avvertono molti osservatori, proprio grazie alla loro presunta asetticità gli algoritmi diventano i protagonisti di un colossale “math-washing”, una catarsi attraverso i numeri in cui scelte dal preciso impatto sociale si ammantano di neutralità perché assunte da macchine. È da questa presa d’atto che la riflessione sull’impatto degli algoritmi sul principio di uguaglianza e sul rischio di discriminazioni si incrocia con la questione nodale della loro scarsa trasparenza. La denuncia del loro carattere ‘oscuro’ diviene così il fuoco della riflessione: vere e proprie ‘scatole nere’ per la difficoltà di addentrarsi nei meccanismi che presiedono al loro funzionamento e per l’orientamento, emerso soprattutto negli ordinamenti di common law, di respingere le richieste di accesso per ragioni di tutela della proprietà intellettuale del software. Si denuncia la difficoltà di lettura di algoritmi che impiegano grandi quantità di dati (big data) e, in misura crescente, si caratterizzano per l’impiego di tecnologie basate sull’intelligenza artificiale, che non si limitano a seguire fedelmente le istruzioni del programmatore, ma inventano soluzioni e percorsi inediti; con il risultato che neppure colui che ha fornito le istruzioni alla macchina attraverso l’algoritmo è pienamente in grado di ripercorrere il processo decisionale e offrire una spiegazione comprensibile. La trasparenza dell’algoritmo è, dunque, un risultato molto difficile da conseguire. Data la loro pervasività è la società stessa a diventare una grande, unica scatola nera, una “black box society”. È dall’incrocio delle due prospettive segnalate – il carattere non neutrale dell’algoritmo e la sua scarsa trasparenza – che si è sviluppata negli ultimi anni un’intensa riflessione critica sulla delega delle scelte a dispositivi di difficile, se non impossibile, identificazione; e, di conseguenza, sui limiti di un sindacato esterno appropriato sulle decisioni assunte in modo automatizzato dalle macchine. Il diritto – è l’immancabile conclusione cui si giunge a tutte le latitudini – non è affatto pronto a questa sfida. D’altra parte, se la creazione di una società che – per scopi di lucro, di sicurezza o altro – organizza molte delle sue attività intorno alla raccolta di quantità sempre maggiori di dati, e se per avere i dati occorre osservare le attività umane, registrarle e analizzarle costantemente ed in tempo reale, si pone un chiaro problema di privacy. La questione è più delicata quando i dati sono ‘sensibili’, riguardanti la sfera più intima e personale, salute, orientamento sessuale o preferenze politiche. Ma nell’era dei big data questa distinzione sfuma, dato che anche da dati apparentemente banali, come la lista degli acquisti ad un supermercato o l’elenco degli ‘amici’ su Facebook, diventa possibile trarre informazioni ben più personali, come la gravidanza di una persona o il suo orientamento sessuale. Da un lato gli osservatori e dall’altro gli osservati, secondo una linea di separazione lungo la quale si giocano i rapporti di forza nella società dell’informazione… (segue)



Execution time: 108 ms - Your address is 3.93.75.30
Software Tour Operator