Potrà mai funzionare l’intelligenza artificiale applicata alla giustizia?
Se lo sono chiesti i senatori che hanno ascoltato il professore eticista presso la Pontificia Università Gregoriana Paolo Benanti presso la commissione giustizia di Palazzo Madama: “Il giudizio non è un calcolo matematico” ha detto l’accademico, dal momento che non si possono tradurre valori etici in valori numerici. Ma se dovesse accadere che un software venisse applicato al campo giuridico, ci ritroveremmo in una situazione in cui il giurista diverrebbe una sorta di tecnico con il solo scopo di “premere il tasto” per dare il “via libera” alla macchina che si occuperebbe del procedimento.
Una macchina che diverrebbe una sorta di ‘oracolo’ dal momento che gli ‘algoritmi’ che la governerebbero non saranno conosciuti dalla maggioranza dei cittadini ma solo da una cerchia ristretta di tecno - giuristi: “Quello che prima era un codice giuridico interpretato da una persona, ora è un codice informatico eseguito da una macchina, con un aggravante che non c'è trasparenza, perché quel programma che sta dietro la macchinetta nessuno l'ha mai visto”, ha detto l’accademico sottolineando il fatto che l’intelligenza artificiale, benché sia un prodotto tecnologico “non è mai del tutto neutrale”.
Un dato fondamentale dal momento che, come ha riportato Benanti, “l’intelligenza artificiale è in mano a nove compagnie che hanno una capitalizzazione di mercato superiore al trilione di dollari. Qualcuno vale anche 3 trilioni di dollari. Il PIL della Gran Bretagna è 3.3. Quindi abbiamo pochi grandi player” che detengono la totalità della programmazione dell’I.A.
Per Benanti quindi non ci sono dubbi: l’intelligenza artificiale se applicata alla giustizia provocherebbe dei cambiamenti di tipo “valoriale”, per questo deve rimanere “umana” senza essere meccanicizzata.
Per rivedere la seduta: clicca qui!
ARTICOLI CORRELATI
Mafie e Intelligenza Artificiale, Gratteri: ''Una sfida che ci coglie impreparati''