Links condivisione social
Large Language Models

I bias cognitivi dell’IA possono essere utili: uno studio coordinato dall’Università di Pavia pubblicato su «Nature Machine Intelligence»

23 Marzo 2026
Articolo aggiornato:
Sullo sfondo mani una persona che digita al computer. In sovrimpressione icone collegate ai Large Language Models e all'IA
Crediti immagine
© Adobe Stock

I Large Language Models (LLM) sono modelli linguistici alla base di molti sistemi di Intelligenza Artificiale (IA) generativa. Questi sistemi, con cui interagiamo sempre più spesso, si nutrono di dati e testi che non incorporano solo stereotipi sociali, ma anche bias cognitivi, ossia schemi di ragionamento che caratterizzano il modo in cui gli esseri umani percepiscono il mondo. 

È da questa constatazione che prende avvio il contributo pubblicato su «Nature Machine Intelligence», nato da una collaborazione tra il Dipartimento di Scienze del Sistema Nervoso e del Comportamento dell’Università di Pavia, con la dott.ssa Vittoria Dentella e il prof. Luca Rinaldi (anche della Sezione di Psicologia Cognitiva della Fondazione Mondino), e l’Università degli Studi di Milano-Bicocca, con il prof. Marco Marelli

L’articolo propone una riflessione critica su un tema sempre più centrale nel dibattito scientifico: ridurre i bias cognitivi nei modelli di linguaggio è davvero desiderabile?

Negli ultimi anni, l’attenzione della comunità scientifica si è concentrata soprattutto sulla necessità di individuare e correggere i bias sociali presenti nei sistemi di IA (quali stereotipi di genere e culturali), con l’obiettivo di limitare la riproduzione di disuguaglianze e discriminazioni. Più recentemente, però, è emerso che anche i bias cognitivi sono rintracciabili negli LLM. Infatti, poiché gli LLM apprendono dai pattern statistici del linguaggio, questi finiscono per assorbire non solo contenuti e associazioni socialmente diffuse, ma anche modalità ricorrenti del ragionamento umano.

Il punto sollevato dall’articolo è che, a differenza dei bias sociali, i bias cognitivi non possono essere considerati semplicemente come “errori” da eliminare. Pur rappresentando spesso deviazioni rispetto a modelli di razionalità formale, essi possono svolgere anche una funzione adattiva, aiutando gli individui a orientarsi in situazioni complesse, incerte o fortemente dipendenti dal contesto. In altre parole, ciò che appare come una distorsione logica può talvolta riflettere una forma di ragionamento pratica e funzionale.

Da qui nasce una questione cruciale: un modello con meno bias cognitivi è davvero un decisore migliore? Secondo gli autori, la risposta non è scontata. L’idea che la mitigazione dei bias produca sistemi più razionali, oggettivi e neutrali poggia infatti su presupposti controversi. Eliminare un bias non significa automaticamente rendere una decisione neutrale: al contrario, intervenire su questi meccanismi implica spesso una scelta normativa su quale forma di ragionamento debba essere privilegiata e su quali esiti siano da considerarsi preferibili. Questo fatto mette in luce una dimensione etica particolarmente rilevante: stabilire quali bias mantenere, attenuare o correggere nei modelli di IA non è una questione puramente tecnica. Significa piuttosto decidere quali modi di valutare il mondo e di prendere decisioni debbano essere incorporati nelle tecnologie che utilizziamo ogni giorno.

Il contributo invita la comunità scientifica ad aprire una discussione più ampia e rigorosa sul significato stesso della mitigazione dei bias cognitivi negli LLM. Prima ancora di sviluppare strumenti per ridurli, sostengono gli autori, è necessario chiarire quale sia l’obiettivo finale di questo processo e su quali basi epistemologiche ed etiche esso debba poggiare.

In un momento in cui gli LLM sono sempre più presenti nel quotidiano, dalla produzione e trasmissione della conoscenza ai processi decisionali automatizzati, comprendere la natura dei bias che li attraversano diventa essenziale. Il messaggio centrale del lavoro è chiaro: rendere gli LLM meno simili al ragionamento umano non significa necessariamente renderli più giusti, più neutrali o più affidabili.

Slide esplicativa di bias cognitivi e sociali, che mostra in modo immediato i due diversi tipi di bias che possono emergere nei modelli linguistici.

Sopra una slide esplicativa di bias cognitivi e sociali, che mostra in modo immediato i due diversi tipi di bias che possono emergere nei modelli linguistici. 

Nel pannello A è illustrato un esempio di bias sociale: in una lista di filosofi compare una sola donna, Simone de Beauvoir, a indicare come gli LLM tendano a riprodurre associazioni e squilibri già presenti nei dati linguistici con cui sono stati addestrati. 

Nel pannello B viene invece rappresentato un caso di bias cognitivo, in particolare il framing bias: tra due trattamenti con esito matematicamente identico, viene preferito quello descritto in termini più positivi. 

La figura riassume così uno dei messaggi centrali del lavoro: i modelli linguistici non assorbono soltanto stereotipi sociali, ma anche schemi ricorrenti del ragionamento umano, che possono influenzare e orientare risposte, valutazioni e processi decisionali.