Tutto è iniziato con una domanda semplice: “Come sta il Santo Padre?”
Una di quelle domande che nascono dalla curiosità, dal rispetto o semplicemente dal desiderio umano di sapere se qualcuno che ha un ruolo simbolico per milioni di persone stia bene.
L’intelligenza artificiale – nel caso specifico, ChatGPT collegato a una funzione di ricerca in tempo reale – ha risposto. Rapida, precisa, documentata. Come sempre.
O almeno così sembrava.
Tra i dettagli forniti, uno stonava: Donald Trump, indicato come “ex presidente degli Stati Uniti”, avrebbe partecipato ai funerali del Papa.
Un’affermazione curiosa, dato che, al momento in cui leggevamo, Trump era presidente in carica.
L’informazione era sbagliata. Ma non solo: era sospettosamente isolata, l’unica tra decine di fonti a riportarlo così.
Allora è partita l’indagine. E più scavavamo, più emergeva qualcosa di interessante, che con Trump aveva poco a che fare:
l’errore era perfettamente logico… per un algoritmo.
Come sbaglia una macchina intelligente
La fonte dell’errore? Un sito minore, che in un passaggio riportava: “Donald Trump, ex presidente degli Stati Uniti, parteciperà ai funerali…”
Un errore umano, forse una svista, forse un articolo non aggiornato. Nessuna malizia.
Ma l’algoritmo, alla ricerca di informazioni utili e leggibili, ha trovato quella frase e l’ha ritenuta sufficiente.
E qui arriva la parte più inquietante.
L’AI non ha confrontato, non ha dubitato, non ha verificato se quella fonte fosse minoritaria o errata.
Ha semplicemente deciso che quella informazione “suonava bene” e l’ha fatta sua.
Non ha usato la logica, non ha cercato coerenza con altre fonti più autorevoli.
Ha fatto quello che molti esseri umani fanno ogni giorno: ha letto un’informazione isolata, l’ha capita letteralmente, e l’ha ripetuta con sicurezza.
In una parola: ha agito da analfabeta funzionale.
Non è un bug. È un riflesso culturale
Questo errore non è casuale. È un riflesso del modo in cui abbiamo addestrato queste intelligenze.
Abbiamo chiesto loro di essere veloci, fluide, sempre pronte a rispondere.
Abbiamo progettato sistemi che premiano l’apparenza della risposta, non la sua affidabilità.
Perché nel nostro tempo, tra un post, una notifica e un titolo clickbait, la verità ha un tempo di latenza troppo alto.
Così gli algoritmi imparano da noi: scelgono la prima informazione che sembra valida, la incorniciano bene e te la servono con sicurezza.
E noi, spesso, annuiamo.
Il paradosso del sapere istantaneo
Il punto è questo: se l’errore riguarda Trump, anche chi è disinformato se ne accorge.
Ma se l’errore è su qualcosa di più tecnico, sottile o lontano dalla nostra esperienza, nessuno lo nota.
E allora l’informazione errata resta. Si sedimenta. Entra nei modelli. Diventa parte della verità collettiva.
Il bias si autoalimenta.
L’ignoranza non solo non corregge l’errore: lo premia con il silenzio e la fiducia.
Una proposta: un’AI che sa quando non sa
Da qui nasce un’idea forse ingenua, ma necessaria:
e se creassimo un’intelligenza artificiale lenta?
Un sistema che riflette, confronta, espone il grado di certezza, ammette quando non è sicura?
Un’AI che educa alla pazienza, alla complessità, al dubbio.
Un’AI che non cerca di “vincere il mercato”, ma di non deformare la realtà per compiacere l’ansia del sapere immediato.
Sarebbe meno popolare, forse. Ma anche più umana.
Questa piccola indagine partita da un titolo sbagliato ci ricorda una cosa:
non serve un complotto per disinformare.
Basta un algoritmo veloce, un pubblico distratto, e nessuno che chieda “perché?”
Ma se anche una sola persona lo nota, lo segnala, lo chiede…
allora forse, lentamente, possiamo riprenderci il diritto al dubbio.
Fammi sapere se vuoi aggiustare tono, struttura, profondità… oppure passiamo alla fase “confezionamento” (titolo vero, sottotitolo, immagini, tag, ecc.).
Lascia un commento