ChatGPT ha scritto una sentenza, poi ha detto: “I giudici non devono usare l’intelligenza artificiale”

ChatGPT ha scritto una sentenza
SANCARLO50-700
SANCARLO50-700
previous arrow
next arrow

Limite all’uso dell’IA in Europa. Tra due anni lo userà il 90% della popolazione

“Un giudice della Colombia ha utilizzato il programma di intelligenza artificiale ChatGPT (Chat Generative Pre-trained Transformer – trasformatore pre-istruito generatore di programmi di dialogo) per emettere una sentenza”. Questo l’attacco dell’articolo di Vittorio Sabadin su Il Messaggero dello scorso 4 febbraio. La notizia diffusa dal The Guardian ha suscitato scalpore nella società civile, soprattutto nei “circoli” di giustizia. Ormai famosissimo il programma di dialogo con gli umani sviluppato dalla OpenAI di Elon Musk.

Come è noto, il sistema permette di incrociare le fonti più significative del Web per elaborare – grazie ad un complesso algoritmo – risposte coerenti alle domande che gli si pongono. Ad usarlo sono stati per primi gli studenti, poi qualche professionista e adesso – purtroppo – finanche un giudice. Certo il sistema scriverà meglio di molti esseri umani, ma potrà davvero sostituirli?

Il caso di un bambino autistico: risponde ChatGPT

Bruno-Cristillo-Fotografo
simplyweb2024-336
Bruno-Cristillo-Fotografo
previous arrow
next arrow

“A Cartagena il giudice Juan Manuel Padilla” è stato chiamato a decidere “se l’assicurazione di un bambino autistico dovesse coprire tutti i costi delle cure” Il magistrato, per rispondere è ricorso alle vie brevi preferendo Internet agli archivi del tribunale, quindi alla letture delle leggi del suo Stato. Perciò, alla domanda di specie: “Un minore autistico è esonerato dal pagamento delle tasse per le sue terapie?” ChatGPT ha risposto: “Secondo le normative in Colombia, i minori con diagnosi di autismo sono esentati dal pagamento delle tasse per le loro terapie”. Una risposta sintetica, allo stesso tempo esaustiva, che le parti potevano tranquillamente trovare da sole.

Peraltro, se la stessa intelligenza artificiale (I.A.) ha saputo “consultare” le fonti normative colombiane, perché non lo ha fatto anche l’assicurazione del bambino? Ma soprattutto: perché da circa 26 secoli (5 a.C. più 21 d.C) gli esseri umani hanno istituito e preferito la figura del Giudice, terzo ed estraneo alle parti? Adesso che la sentenza di Padilla rischia di finire nei libri di diritto e creare un preoccupante precedente di procedura giudiziaria, la fiducia delle persone nella giustizia cala esponenzialmente, rischiando di rafforzare la convinzione che chiunque possa far valere i propri diritti attraverso la “Parola” di Internet.

ChatGPT: “Giornalisti e Giudici, fate a meno di me”

The Guardian ha approfondito la vicenda rivolgendosi proprio all’I.A. per far luce sulla anomala sentenza. “I giudici” – ha risposto il programma – “non dovrebbero usare ChatGPT quando si pronunciano su casi legali […] Non sostituisce la conoscenza, l’esperienza e il giudizio di un giudice umano. Anche i giornalisti” – ha aggiunto il robot – “dovrebbero prestare attenzione quando utilizzano citazioni generate da ChatGPT nei loro articoli”. Potremmo pensare che questa sia una risposta elaborata sulla base delle informazioni raccolte dal Web, il ché indurrebbe a credere che in giro la quasi totalità della popolazione mondiale guardi con diffidenza all’artificio “parlante”.

L’Unione Europea, tuttavia, sembra essere – in quanto a diritti del giusto processo – già un passo avanti rispetto agli altri Stati e Organizzazioni del mondo. La Commissione europea per l’efficacia della giustizia (CEPEJ) del Consiglio d’Europa ha emanato la Carta etica europea per l’uso dell’intelligenza artificiale nei sistemi di giustizia penale e nei relativi ambienti. Un documento di eccezionale rilevanza, che ha preso atto dell’importanza dell’intelligenza artificiale nelle nostre moderne società e dei benefici attesi quando questa sarà pienamente utilizzata al servizio dell’efficienza e qualità della giustizia. La Carta individua alcune fondamentali linee guida alle quali devono attenersi “i soggetti pubblici e privati responsabili del progetto e sviluppo degli strumenti e dei servizi della I.A.”

La Carta etica enuncia cinque principi, l’ultimo è forse il più importante: il principio di garanzia dell’intervento umano, noto come under user control. Un principio, questo, che preclude un approccio deterministico e assicurare che gli utilizzatori agiscano come soggetti informati ed esercitino il controllo delle scelte effettuate. Dunque, la norma – è vero – non esclude l’I.A. dalle aule di giustizia, ma la limita nell’esercizio del Penale e comunque la esclude dai contenziosi civili e commerciali. Una ulteriore precisazione merita d’esser fatta: niente finora ha abilitato ChatGPT all’esercizio e tutela del diritto (lo dice proprio lui), sicché i giudici – ad oggi – devono fare uso unicamente di sistemi autorizzati e sviluppati appositamente per la funzione richiesta.

La Procura di Genova, non a caso, ha fatto uso di un software dell’FBI per indagare sul crollo del ponte Morandi e, ancora, il database “Toga” è adoperato quasi ovunque per ricercare tutte le fattispecie criminose disciplinate dal Codice penale e dalla legislazione speciale, permettendo di verificare, tra l’altro, la competenza, la procedibilità, l’ammissibilità a riti alternativi, i termini prescrizionali e di durata delle misure cautelari, nonché di calcolare la pena per ciascun tipo di reato.

Per quanto all’orizzonte si intraveda un uso sempre più diffuso dell’I.A., non mancano le critiche degli esperti del settore. I colleghi di Padilla non sono stati a guardare, anzi lo hanno aspramente criticato in ragione dell’imperfezione che ancora avvolge il ChatGPT, che qualche volta fornisce risposte diverse alla stessa domanda. Del resto come biasimare il sistema: si limita a rielaborare contenuti, molto spesso inesatti, messi online da milioni di utenti, in sfregio della cultura e dello studio serio ed indefesso di certi individui.

Nina Schick, esperta di piattaforme generatrici di contenuti, prevede – lo riporta Sabadin – che entro due anni il 90% delle informazioni disponibili online sarà prodotto dall’intelligenza artificiale. Si spera che per allora intervenga il buon senso e ponga fine ad un drammatico processo di auto-disintegrazione sociale e professionale.