Etica e IA: strumenti potenti, rischi inevitabili

Ultimi Commenti

Etica e IA: strumenti potenti, rischi inevitabili

Articolo Alessia IA
Psicologia Giuridica

Etica e IA: strumenti potenti, rischi inevitabili

Alessia Mensurati, psicologa giuridica, formata in Neuropsicologia clinica e riabilitativa, con background in Neuroscienze Cliniche. Appassionata di Psicologia Giuridica e Neuropsicologia Forense, collabora con la redazione di Psicologia in Tribunale.

L’Intelligenza Artificiale ha rivoluzionato il modo in cui produciamo qualsiasi tipologia di contenuto, ma anche il nostro modo di prendere decisioni e come interagiamo con la tecnologia stessa. Ogni innovazione, come tante altre nella storia, porta sempre con sé dei dilemmi etici, soprattutto quando gli strumenti sono in grado di influenzare la società in modo profondo e significativo.

L’IA offre, quindi, dei vantaggi straordinari che consentono un aumento della produttività, il miglioramento e l’ottimizzazione della ricerca scientifica, la personalizzazione dell’istruzione e può essere persino di supporto per la salute mentale. Tuttavia, sono svariati i quesiti che dobbiamo porci in merito ad un contesto pionieristico come questo: 

  • Chi ha il controllo su questi strumenti? 
  • Fino a che punto possiamo delegare all’IA?
  • Quali sono i limiti etici e legali accettabili nell’uso di tali tecnologie?

Queste ed altre domande dovranno trovare risposta nel prossimo futuro, prima che l’integrazione di queste tecnologie avvenga totalmente. Anche perché la totale imparzialità promessa dalle IA in realtà è pur sempre assoggettata all’elaborazione di dati creati da esseri umani, di per sé tutt’altro che imparziali, rischiando di perpetuare ed amplificare problematiche già esistenti come i pregiudizi sociali. Questo potrebbe accadere in quanto i modelli di linguaggio e le reti neurali apprendono da dati storici, che quindi contengono bias impliciti. Possono quindi esservi delle distorsioni nei modelli predittivi, ad esempio, applicati alla giustizia, dove le IA potrebbero sovrastimare il rischio di recidive in base a parametri etici e socioeconomici. 

L’uso massivo di dati personali conduce ad un’altra grande sfida etica: i modelli di IA necessitano di enormi quantità di informazioni per funzionare correttamente, ma questo ci fa porre interrogativi sul diritto alla privacy, in quanto i dati vengono raccolti, archiviati e utilizzati in modi spesso poco trasparenti. Un esempio, capitato di recente, è l’elaborazione di un riassunto sulla base di un articolo il cui accesso era consentito solo su iscrizione al sito, prerequisito che l’IA ha evitato senza alcun tipo di problematica.
C’è anche il grande rischio di manipolazione, dovuto alla creazione di fake news, deepfake e campagne di disinformazione, oltre che gravi problematiche relative alla cybersecurity, dove le IA – ad esempio impiegate in contesti delicati come quello sanitario – possono essere a rischio hackeraggio, con potenziali conseguenze devastanti.

All’interno dell’ambito della Giustizia e della Psicologia, l’uso delle IA apre a scenari decisamente complessi:


– Nei tribunali: sebbene alcune tecnologie siano già state utilizzate per analizzare sentenze e prevedere gli esiti giudiziari, l’affido totale ad un sistema automatizzato per decisioni critiche solleva dubbi e quesiti sia sulla responsabilità, che sull’equità.


– In seduta: sistemi basati sull’IA come i chatbot per il supporto psicologico, seppur si stiano già sviluppando, possono davvero sostituire le sfumature dell’interazione umana? Il rischio, poiché l’IA in questi ambiti si adatta sulla base delle interazioni con la persona, potrebbe ridurre il tutto ad una manciata di sterili consigli in loop, mentre la terapia è un processo che non può essere standardizzato ed automatizzato, poiché è necessario considerare la complessità dell’essere umano.

Servirebbero, quindi, normative chiare e principi etici condivisi, per evitare abusi. Gli utenti devono poter comprendere appeno come e perché l’algoritmo effettua una decisione, quale è il “processo di ragionamento” retrostante. Inoltre, l’IA dovrebbe essere sempre supervisionata dall’essere umano in quanto non ha un range di capacità decisionali pari a quelle umane. Per ciò che concerne i bias, i sistemi dovrebbero essere progettati per minimizzarli – bias che possono differenziare di molto anche in base alla cultura di riferimento – per permettere un accesso equo all’utilizzo di questa tecnologia.

La consapevolezza, sembra quindi essere l’ingrediente fondamentale per abbracciare e non ostacolare o contaminare questo progresso. Le questioni etiche che circondano questa tecnologia devono essere ampiamente discusse per assicurarsi che l’innovazione rimanga al servizio, in positivo, dell’umanità e che non vada ad incancrenire procedimenti negativi già propri della nostra natura.


Sai quali sono le motivazioni che possono determinare la nullità della Consulenza Tecnica d’Ufficio in ambito civile e penale? Questo argomento, spesso sottovalutato, è di rilevanza fondamentale per il lavoro svolto dallo Psicologo nominato dal Giudice e, in alcuni casi, può avere delle conseguenze serie sul piano professionale e dibattimentale. Segui il corso in versione asincrona che abbiamo predisposto.
Corso On Demand
Nullità della CTU (Consulenza Tecnica d’Ufficio)
Durata del Corso: 4 ore

Dal nostro Blog

Lascia un tuo commento all'articolo

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *