Il contributo analizza le implicazioni etiche derivanti dall’utilizzo dei sistemi di intelligenza artificiale in ambito giurisprudenziale, con particolare riferimento alla pretesa imparzialità del giudicante. Dopo aver delineato i principali ambiti di applicazione dell’AI nel settore penale – dalla prevenzione del rischio alla valutazione della recidiva – l’autore si sofferma sul caso Loomis, divenuto emblematico dell’impiego dell’algoritmo COMPAS nella determinazione della pena. Tale vicenda consente di interrogarsi criticamente su tre aspetti fondamentali: l’effettiva utilità degli strumenti algoritmici a supporto del giudice, la loro reale capacità di ridurre i pregiudizi decisionali e il peso determinante che le valutazioni automatiche possono assumere nel processo deliberativo umano. L’analisi mette in discussione il duplice presupposto che fonda la fiducia nella giustizia predittiva: una superiore capacità di previsione rispetto all’uomo e una presunta neutralità della macchina. Da un lato, studi empirici mostrano che l’accuratezza predittiva degli algoritmi non supera significativamente quella umana; dall’altro, i sistemi di machine learning possono incorporare e riprodurre bias presenti nei dati di addestramento, rivelando come il “mito dell’imparzialità” sia problematico tanto per l’uomo quanto per la macchina. L’autore evidenzia come l’imparzialità assoluta sia un ideale irraggiungibile: il giudice umano decide sempre alla luce di esperienze, preferenze e processi deliberativi che, pur potendo generare distorsioni, costituiscono anche la condizione stessa della decisione motivata. L’algoritmo, invece, non delibera propriamente, ma elabora correlazioni statistiche su casi pregressi, senza autentico discernimento. La soluzione non risiede in un’alternativa esclusiva tra giudice-robot e giudice-umano, bensì in una complementarietà prudente e criticamente vigilata. L’AI deve configurarsi come strumento ausiliario nelle mani di un soggetto eticamente formato, in un rapporto in cui il tecnologico rimane subordinato all’umano e orientato da un’etica del vivere comune.

L'imparzialità del giudicante. Alcune implicazioni etiche derivanti dall'utilizzo dell'intelligenza artificiale in giurisprudenza

Cristiano Cali'
2021-01-01

Abstract

Il contributo analizza le implicazioni etiche derivanti dall’utilizzo dei sistemi di intelligenza artificiale in ambito giurisprudenziale, con particolare riferimento alla pretesa imparzialità del giudicante. Dopo aver delineato i principali ambiti di applicazione dell’AI nel settore penale – dalla prevenzione del rischio alla valutazione della recidiva – l’autore si sofferma sul caso Loomis, divenuto emblematico dell’impiego dell’algoritmo COMPAS nella determinazione della pena. Tale vicenda consente di interrogarsi criticamente su tre aspetti fondamentali: l’effettiva utilità degli strumenti algoritmici a supporto del giudice, la loro reale capacità di ridurre i pregiudizi decisionali e il peso determinante che le valutazioni automatiche possono assumere nel processo deliberativo umano. L’analisi mette in discussione il duplice presupposto che fonda la fiducia nella giustizia predittiva: una superiore capacità di previsione rispetto all’uomo e una presunta neutralità della macchina. Da un lato, studi empirici mostrano che l’accuratezza predittiva degli algoritmi non supera significativamente quella umana; dall’altro, i sistemi di machine learning possono incorporare e riprodurre bias presenti nei dati di addestramento, rivelando come il “mito dell’imparzialità” sia problematico tanto per l’uomo quanto per la macchina. L’autore evidenzia come l’imparzialità assoluta sia un ideale irraggiungibile: il giudice umano decide sempre alla luce di esperienze, preferenze e processi deliberativi che, pur potendo generare distorsioni, costituiscono anche la condizione stessa della decisione motivata. L’algoritmo, invece, non delibera propriamente, ma elabora correlazioni statistiche su casi pregressi, senza autentico discernimento. La soluzione non risiede in un’alternativa esclusiva tra giudice-robot e giudice-umano, bensì in una complementarietà prudente e criticamente vigilata. L’AI deve configurarsi come strumento ausiliario nelle mani di un soggetto eticamente formato, in un rapporto in cui il tecnologico rimane subordinato all’umano e orientato da un’etica del vivere comune.
2021
La pubblica amministrazione del futuro. Tra sfide e opportunità per l'innovazione del settore pubblico
Editoriale Scientifica
121
134
979-12-5976-048-7
https://scholar.google.com/citations?view_op=view_citation&hl=it&user=zRTES68AAAAJ&citation_for_view=zRTES68AAAAJ:ufrVoPGSRksC
Artificial Intelligence, Philosophy of AI, Ethics of Technology, Philosophy of Mind and Artificial Intelligence & AI, Ethics of AI
Cristiano Cali'
File in questo prodotto:
File Dimensione Formato  
C1. Cali_L_imparzialità del giudicante.pdf

Accesso aperto

Tipo di file: PDF EDITORIALE
Dimensione 1.99 MB
Formato Adobe PDF
1.99 MB Adobe PDF Visualizza/Apri

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/2318/1936770
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact