Il contributo si propone di illustrare le ragioni per le quali l’adozione di un approccio organizzativo di monitoraggio e analisi dell’impatto delle decisioni assunte dai sistemi di intelligenza artificiale nei contesti lavorativi sia più efficace, rispetto a una trasparenza di funzionamento, per governare l’opacità tecnologica dei sistemi avanzati. Particolare attenzione viene dedicata al ruolo di supporto che in questo ambito possono assumere le organizzazioni sindacali e gli organismi di parità in un’ottica di partecipazione alle scelte datoriali di implementazione dei sistemi. L’analisi viene condotta attraverso una metodologia giuridico-normativa che tenga conto del contesto multilivello di regolazione della trasparenza dei sistemi di intelligenza artificiale.
La trasparenza della black box algoritmica nel prisma del controllo dei poteri datoriali. La valorizzazione della trasparenza di impatto
Vincenzo Cangemi
2026-01-01
Abstract
Il contributo si propone di illustrare le ragioni per le quali l’adozione di un approccio organizzativo di monitoraggio e analisi dell’impatto delle decisioni assunte dai sistemi di intelligenza artificiale nei contesti lavorativi sia più efficace, rispetto a una trasparenza di funzionamento, per governare l’opacità tecnologica dei sistemi avanzati. Particolare attenzione viene dedicata al ruolo di supporto che in questo ambito possono assumere le organizzazioni sindacali e gli organismi di parità in un’ottica di partecipazione alle scelte datoriali di implementazione dei sistemi. L’analisi viene condotta attraverso una metodologia giuridico-normativa che tenga conto del contesto multilivello di regolazione della trasparenza dei sistemi di intelligenza artificiale.| File | Dimensione | Formato | |
|---|---|---|---|
|
22042026115838.pdf
Accesso aperto
Tipo di file:
PDF EDITORIALE
Dimensione
449.17 kB
Formato
Adobe PDF
|
449.17 kB | Adobe PDF | Visualizza/Apri |
I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.



