Il contributo analizza le implicazioni etiche derivanti dall’utilizzo dei sistemi di intelligenza artificiale in ambito giurisprudenziale, con particolare riferimento alla pretesa imparzialità del giudicante. Dopo aver delineato i principali ambiti di applicazione dell’AI nel settore penale – dalla prevenzione del rischio alla valutazione della recidiva – l’autore si sofferma sul caso Loomis, divenuto emblematico dell’impiego dell’algoritmo COMPAS nella determinazione della pena. Tale vicenda consente di interrogarsi criticamente su tre aspetti fondamentali: l’effettiva utilità degli strumenti algoritmici a supporto del giudice, la loro reale capacità di ridurre i pregiudizi decisionali e il peso determinante che le valutazioni automatiche possono assumere nel processo deliberativo umano. L’analisi mette in discussione il duplice presupposto che fonda la fiducia nella giustizia predittiva: una superiore capacità di previsione rispetto all’uomo e una presunta neutralità della macchina. Da un lato, studi empirici mostrano che l’accuratezza predittiva degli algoritmi non supera significativamente quella umana; dall’altro, i sistemi di machine learning possono incorporare e riprodurre bias presenti nei dati di addestramento, rivelando come il “mito dell’imparzialità” sia problematico tanto per l’uomo quanto per la macchina. L’autore evidenzia come l’imparzialità assoluta sia un ideale irraggiungibile: il giudice umano decide sempre alla luce di esperienze, preferenze e processi deliberativi che, pur potendo generare distorsioni, costituiscono anche la condizione stessa della decisione motivata. L’algoritmo, invece, non delibera propriamente, ma elabora correlazioni statistiche su casi pregressi, senza autentico discernimento. La soluzione non risiede in un’alternativa esclusiva tra giudice-robot e giudice-umano, bensì in una complementarietà prudente e criticamente vigilata. L’AI deve configurarsi come strumento ausiliario nelle mani di un soggetto eticamente formato, in un rapporto in cui il tecnologico rimane subordinato all’umano e orientato da un’etica del vivere comune.
L'imparzialità del giudicante. Alcune implicazioni etiche derivanti dall'utilizzo dell'intelligenza artificiale in giurisprudenza
Cristiano Cali'
2021-01-01
Abstract
Il contributo analizza le implicazioni etiche derivanti dall’utilizzo dei sistemi di intelligenza artificiale in ambito giurisprudenziale, con particolare riferimento alla pretesa imparzialità del giudicante. Dopo aver delineato i principali ambiti di applicazione dell’AI nel settore penale – dalla prevenzione del rischio alla valutazione della recidiva – l’autore si sofferma sul caso Loomis, divenuto emblematico dell’impiego dell’algoritmo COMPAS nella determinazione della pena. Tale vicenda consente di interrogarsi criticamente su tre aspetti fondamentali: l’effettiva utilità degli strumenti algoritmici a supporto del giudice, la loro reale capacità di ridurre i pregiudizi decisionali e il peso determinante che le valutazioni automatiche possono assumere nel processo deliberativo umano. L’analisi mette in discussione il duplice presupposto che fonda la fiducia nella giustizia predittiva: una superiore capacità di previsione rispetto all’uomo e una presunta neutralità della macchina. Da un lato, studi empirici mostrano che l’accuratezza predittiva degli algoritmi non supera significativamente quella umana; dall’altro, i sistemi di machine learning possono incorporare e riprodurre bias presenti nei dati di addestramento, rivelando come il “mito dell’imparzialità” sia problematico tanto per l’uomo quanto per la macchina. L’autore evidenzia come l’imparzialità assoluta sia un ideale irraggiungibile: il giudice umano decide sempre alla luce di esperienze, preferenze e processi deliberativi che, pur potendo generare distorsioni, costituiscono anche la condizione stessa della decisione motivata. L’algoritmo, invece, non delibera propriamente, ma elabora correlazioni statistiche su casi pregressi, senza autentico discernimento. La soluzione non risiede in un’alternativa esclusiva tra giudice-robot e giudice-umano, bensì in una complementarietà prudente e criticamente vigilata. L’AI deve configurarsi come strumento ausiliario nelle mani di un soggetto eticamente formato, in un rapporto in cui il tecnologico rimane subordinato all’umano e orientato da un’etica del vivere comune.| File | Dimensione | Formato | |
|---|---|---|---|
|
C1. Cali_L_imparzialità del giudicante.pdf
Accesso aperto
Tipo di file:
PDF EDITORIALE
Dimensione
1.99 MB
Formato
Adobe PDF
|
1.99 MB | Adobe PDF | Visualizza/Apri |
I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.



