Signor Giudice

Pubblicato il 20-01-2026

di Pierluigi Conzo

Negli ultimi anni, l’Intelligenza Artificiale è entrata in modo crescente nei processi decisionali che regolano la vita collettiva, credendo che l’uso di algoritmi renda le decisioni più oggettive e coerenti. Ma un recente studio pubblicato sulla prestigiosa rivista accademica pnas da un gruppo di ricercatori di Harvard, Yale e Carnegie Mellon mostra che a volte non è così. Il lavoro, Does AI Help Humans Make Better Decisions? (Ben-Michael e colleghi), si propone di valutare empiricamente se e quando l’Intelligenza Artificiale migliori la qualità delle decisioni umane.

Gli autori applicano una metodologia di valutazione causale a un intervento condotto nel sistema giudiziario statunitense, dove i giudici sono stati affiancati per un periodo da un algoritmo chiamato Public Safety Assessment (PSA). Questo programma assegna a ciascun imputato un punteggio di rischio basato su dati relativi all’età e ai precedenti penali, stimando la probabilità che commetta un nuovo reato o non si presenti al processo.

L’ipotesi era che l’AI (Artificial Intelligence) potesse aiutare i giudici a decidere in modo più accurato e uniforme. I risultati, però, smentiscono questa aspettativa. Le decisioni dei giudici che ricevevano i suggerimenti dell’algoritmo non risultavano più precise di quelle dei colleghi che decidevano da soli. Anzi, l’AI tendeva a raccomandare più spesso la custodia cautelare, aumentando i casi di detenzione non necessaria. In sostanza, la collaborazione uomo-macchina non riduceva l’errore, ma lo spostava: meno incertezza, più velocità, forse, ma al prezzo di una maggiore severità.

Dal punto di vista metodologico, gli autori propongono un approccio statistico “controfattuale” che consente di confrontare in modo rigoroso tre sistemi decisionali, umano, umano assistito (ibrido) e puramente algoritmico, anche quando non è possibile osservare tutti gli esiti delle decisioni. Più nel dettaglio, gli autori confrontano i tre diversi sistemi decisionali valutando la capacità di classificazione di ciascun sistema, ovvero la sua abilità nel distinguere correttamente i casi in cui la detenzione è necessaria da quelli in cui non lo è. Tuttavia, poiché le conseguenze di una decisione si osservano solo per gli individui che subiscono quella decisione, non è mai possibile sapere con certezza che cosa sarebbe accaduto se si fosse scelta l’alternativa opposta (il c.d. controfattuale).

L’approccio proposto dagli autori consente però di superare questo limite strutturale tramite un disegno sperimentale in cui la somministrazione delle raccomandazioni dell’ai ai giudici è randomizzata, cioè avviene in modo casuale ed è ignota all’imputato. In questo modo, il fatto che un giudice riceva o meno il suggerimento dell’algoritmo non dipende dalle caratteristiche dell’imputato. Le differenze osservate tra i due gruppi possono quindi essere interpretate come effetti causali del supporto dell’AI, pur non potendo osservare tutti i controfattuali.

Ma il cuore del lavoro è concettuale e lascia spazio a quesiti di natura più normativa. La domanda non è più se l’AI possa essere “più giusta” dell’uomo, bensì cosa intendiamo per “decisione migliore”. Lo studio di Ben-Michael e colleghi non rifiuta la tecnologia, ma mette in discussione l’idea che l’efficienza equivalga alla saggezza. L’Intelligenza Artificiale può essere un supporto utile, ma la sua efficacia dipende dal modo in cui viene integrata nel processo umano e, soprattutto, dalla capacità del decisore di comprenderne i limiti. Se usata senza riflessione, rischia di trasformarsi in un filtro opaco che riduce la complessità a una sequenza di probabilità, appiattendo sfumature e alimentando discriminazioni già esistenti.

La sfida, per la ricerca come per le istituzioni, non è quindi contrapporre l’uomo alla macchina, ma integrarne le capacità in modo che la collaborazione produca valore aggiunto, conoscenza e benessere inclusivo, preservando intenzione, comprensione e responsabilità: le dimensioni (ancora) tipicamente umane di ogni decisione.


Pierluigi Conzo
NP novembre 2025

Questo sito utilizza i cookies. Continuando la navigazione acconsenti al loro impiego. Clicca qui per maggiori dettagli

Ok