Fabio Lauria

Macchine che imparano (anche) dai nostri errori L'effetto boomerang: insegniamo all'IA i nostri difetti e lei ce li restituisce... moltiplicati!

April 13, 2025
Share on social media

Alcune recenti ricerche hanno evidenziato un fenomeno interessante: esiste una relazione “bidirezionale” tra i pregiudizi presenti nei modelli di intelligenza artificiale e quelli del pensiero umano.

Questa interazione crea un meccanismo che tende ad amplificare le distorsioni cognitive in entrambe le direzioni.

Queste ricerche dimostrano che i sistemi di IA non solo ereditano i pregiudizi umani dai dati di addestramento, ma quando vengono implementati possono intensificarli, influenzando a loro volta i processi decisionali delle persone. Si crea così un ciclo che, se non gestito correttamente, rischia di aumentare progressivamente le distorsioni iniziali.

Questo fenomeno è particolarmente evidente in settori importanti come:

In questi ambiti, piccole distorsioni iniziali possono amplificarsi attraverso ripetute interazioni tra operatori umani e sistemi automatizzati, trasformandosi gradualmente in differenze significative nei risultati.

Le origini dei pregiudizi

Nel pensiero umano

La mente umana utilizza naturalmente "scorciatoie di pensiero" che possono introdurre errori sistematici nei nostri giudizi. La teoria del "pensiero doppio" distingue tra:

  • Pensiero veloce e intuitivo (incline agli stereotipi)
  • Pensiero lento e riflessivo (capace di correggere i pregiudizi)

Per esempio, in ambito medico, i medici tendono a dare troppo peso alle ipotesi iniziali, trascurando prove contrarie. Questo fenomeno, chiamato "bias di conferma", viene replicato e amplificato dai sistemi di IA addestrati su dati diagnostici storici.

Nei modelli di IA

I modelli di machine learning perpetuano i pregiudizi principalmente attraverso tre canali:

  1. Dati di addestramento sbilanciati che riflettono disuguaglianze storiche
  2. Selezione di caratteristiche che incorporano attributi protetti (come genere o etnia)
  3. Cicli di feedback derivanti da interazioni con decisioni umane già distorte

Uno studio dell'UCL del 2024 ha dimostrato che i sistemi di riconoscimento facciale addestrati su giudizi emotivi forniti da persone hanno ereditato una tendenza del 4,7% a etichettare i volti come "tristi", per poi amplificare questa tendenza all'11,3% nelle successive interazioni con gli utenti.

Come si amplificano a vicenda

L'analisi dei dati delle piattaforme di selezione del personale mostra che ogni ciclo di collaborazione umano-algoritmo aumenta il pregiudizio di genere dell'8-14% attraverso meccanismi di feedback che si rafforzano a vicenda.

Quando i professionisti delle risorse umane ricevono dall'IA elenchi di candidati già influenzati da pregiudizi storici, le loro successive interazioni (come la scelta delle domande per il colloquio o le valutazioni delle prestazioni) rafforzano le rappresentazioni distorte del modello.

Una meta-analisi del 2025 su 47 studi ha riscontrato che tre cicli di collaborazione umano-IA hanno aumentato le disparità demografiche di 1,7-2,3 volte in settori come sanità, prestiti e istruzione.

Strategie per misurare e mitigare i pregiudizi

Quantificazione attraverso il machine learning

Il framework per la misurazione dei pregiudizi proposto da Dong et al. (2024) permette di rilevare pregiudizi senza bisogno di etichette di "verità assoluta", analizzando le discrepanze nei modelli decisionali tra gruppi protetti.

Interventi cognitivi

La tecnica dello "specchio algoritmico" sviluppata dai ricercatori dell'UCL ha ridotto il pregiudizio di genere nelle decisioni di promozione del 41%, mostrando ai manager come apparirebbero le loro scelte storiche se fossero state prese da un sistema di IA.

I protocolli di formazione che alternano assistenza IA e processo decisionale autonomo si rivelano particolarmente promettenti, riducendo gli effetti di trasferimento dei pregiudizi dal 17% al 6% negli studi diagnostici clinici.

Implicazioni per la società

Le organizzazioni che implementano sistemi di IA senza tenere conto delle interazioni con i pregiudizi umani affrontano rischi legali e operativi amplificati.

L'analisi delle cause per discriminazione sul lavoro mostra che i processi di assunzione assistiti dall'IA aumentano i tassi di successo dei ricorrenti del 28% rispetto ai casi tradizionali guidati dagli esseri umani, poiché le tracce delle decisioni algoritmiche forniscono prove più chiare di impatto disparato.

Verso un'intelligenza artificiale che rispetti la libertà e l'efficienza

La correlazione tra distorsioni algoritmiche e limitazioni alla libertà di scelta ci impone di ripensare lo sviluppo tecnologico in un'ottica di responsabilità individuale e salvaguardia dell'efficienza di mercato. È fondamentale assicurare che l'IA diventi uno strumento per ampliare le opportunità, non per restringerle.

Direzioni promettenti includono:

  • Soluzioni di mercato che incentivino lo sviluppo di algoritmi imparziali
  • Maggiore trasparenza nei processi decisionali automatizzati
  • Deregolamentazione che favorisca la competizione tra diverse soluzioni tecnologiche

Solo attraverso una responsabile auto-regolamentazione del settore, combinata con la libertà di scelta degli utenti, possiamo garantire che l'innovazione tecnologica continui ad essere un motore di prosperità e opportunità per tutti coloro che sono disposti a mettersi in gioco con le proprie capacità.

Fabio Lauria

CEO & Founder | Electe

CEO di Electe, aiuto le PMI a prendere decisioni basate sui dati. Scrivo di intelligenza artificiale nel mondo degli affari.

Most popular
Iscriviti per conoscere le ultime novità

Ricevi ogni settimana notizie e approfondimenti nella tua
casella di posta elettronica. Non fartela sfuggire!

Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.