Apri Menu Chiudi Menu
La tua privacy sul tuo cloud
Per non perdere la tua privacy fra le nuvole: NextCloud il cloud che ci piace

Quando la disinformazione di superficie “buca” le difese delle IA e diventa conoscenza condivisa

AI e disinformazione di superficieUn test condotto da un giornalista della BBC, ha voluto verificare quanto fosse facile far circolare una notizia falsa attraverso i modelli di intelligenza artificiale più diffusi. L’esperimento è stato sorprendentemente semplice: ha creato una pagina web sul proprio blog personale, contenente una fake news costruita ad arte ma plausibile. Dopo averla pubblicata, ha atteso che venisse indicizzata da parte dei motori di ricerca e ha poi interrogato diversi chatbot, tra cui ChatGPT, Google Gemini e Perplexity (Cloude)(...)

Il risultato è stato immediato: ChatGPT, Google Gemini hanno ripetuto la notizia falsa come se fosse un fatto reale, in alcuni casi arricchendola con dettagli inventati. L’esperimento, nato come una prova di curiosità giornalistica, ha rivelato una vulnerabilità molto più profonda: la capacità delle IA di assorbire e riproporre informazioni non verificate solo perché presenti online.

Fin qui, potremmo dire: niente di nuovo. Le IA generative non sono motori di verità, ma sistemi statistici che producono risposte plausibili. Eppure, c’è un dettaglio che cambia completamente la prospettiva.

La fake news non è stata solo ripetuta: è stata “assorbita”

L’aspetto interessante è che la notizia falsa è diventata parte del “patrimonio di conoscenze” dei modelli di IA. L’esperimento conferma che:

  • i modelli hanno integrato la pagina come fonte valida;
  • hanno riutilizzato l’informazione in risposte successive;
  • hanno arricchito la storia con elementi inventati, segno che la stavano trattando come materiale “vero”.

In altre parole: la disinformazione non è stata solo ripetuta, ma incorporata nel processo generativo. Non sappiamo se questa integrazione sia permanente — i modelli vengono aggiornati e filtrati continuamente — ma il fatto che possa accadere anche solo temporaneamente è sufficiente per sollevare un problema enorme.

Se una pagina web può diventare “conoscenza”, allora la disinformazione di superficie è un’arma

L’esperimento della BBC dimostra una cosa tanto semplice quanto inquietante: per ingannare un modello di intelligenza artificiale non serve orchestrare una campagna complessa, né manipolare algoritmi o mettere in campo un esercito di bot. È sufficiente pubblicare una pagina web costruita con un minimo di cura. Una fake news inserita in un blog personale può infatti seguire un percorso sorprendentemente lineare: viene indicizzata dai motori di ricerca, assorbita dai modelli linguistici, ripetuta con un tono di assoluta sicurezza e, infine, rilanciata persino nelle AI Overviews di Google, che la trasformano in una risposta sintetica pronta per milioni di utenti.

Ed è proprio questo passaggio — la ripetizione autorevole — a rappresentare il punto più critico. Quando un’IA generativa afferma qualcosa con sicurezza, l’utente tende a prenderla per buona. Se quell’informazione è falsa, il danno non è solo possibile: è immediato.

Il ruolo di Google: l’amplificazione automatica

La fake news è comparsa anche nelle AI Overviews, il nuovo sistema di risposte sintetiche integrate nei risultati di ricerca. Questo significa che la disinformazione non solo entra nel modello, ma viene spinta in cima alla pagina, davanti ai link, davanti alle fonti, davanti a tutto. È un cortocircuito informativo: una bugia pubblicata su un blog può diventare una verità algoritmica.

Claude è l’unico modello che ha resistito

Un elemento particolarmente interessante emerso dall’esperimento riguarda il comportamento di Claude, il modello sviluppato da Anthropic e alla base di Perplexity che è stato l’unico a non cadere nella trappola della fake news. Questo non significa che Claude sia immune alla disinformazione — nessun modello lo è davvero — ma suggerisce che la sua architettura e i suoi filtri di sicurezza siano più conservativi nell’accettare nuove informazioni e più severi nella valutazione delle fonti.

Il dato è significativo perché mostra che non tutte le IA generative sono uguali. La vulnerabilità non è una caratteristica inevitabile, ma il risultato di scelte progettuali: come vengono addestrati i modelli, quali filtri vengono applicati, come viene gestita la verifica interna delle informazioni. In altre parole, la sicurezza non è un accidente, ma una strategia.

Ed è qui che entra in gioco un aspetto spesso sottovalutato: la diversità dell’ecosistema IA. Il fatto che modelli diversi reagiscano in modo diverso alla stessa sollecitazione è, paradossalmente, una forma di protezione. Se tutti i sistemi funzionassero allo stesso modo, una singola vulnerabilità potrebbe propagarsi ovunque. Invece, la presenza di approcci differenti — più o meno prudenti, più o meno permissivi — crea una sorta di “biodiversità digitale” che riduce il rischio sistemico.

In questo senso, il comportamento della IA sviluppata da Anthropic non è solo una nota tecnica, ma un segnale importante: dimostra che è possibile progettare modelli più resistenti alla disinformazione di superficie. E soprattutto ricorda che la competizione tra diversi agenti IA non è solo una questione di performance, ma anche di affidabilità, trasparenza e responsabilità.

Cosa ci insegna davvero questo esperimento?

L’esperimento della BBC non è un passatempo per smanettoni, ma un segnale d’allarme che ci costringe a guardare in faccia la natura delle IA generative. La prima evidenza è che questi sistemi non verificano la verità: valutano la plausibilità. E la plausibilità, soprattutto online, è facilissima da simulare. Basta una pagina costruita con un minimo di cura perché un’informazione falsa appaia “credibile” agli occhi di un modello linguistico.

La seconda lezione è ancora più delicata: una fake news può trasformarsi in una sorta di “conoscenza” interna al modello. Anche se questa integrazione è temporanea, è sufficiente a generare danni reali, perché l’IA non si limita a ripetere ciò che trova: lo rielabora, lo arricchisce, lo presenta come un fatto consolidato.

Il terzo punto riguarda l’amplificazione. Se una notizia falsa entra nel modello, può finire direttamente nei risultati di ricerca, nelle risposte sintetiche, nelle AI Overviews. In altre parole, può essere spinta in cima alla pagina, davanti alle fonti, davanti al contesto, davanti a tutto.

Serve consapevolezza. L’esperimento non dimostra che l’IA “mente”, bensì che non è progettata per distinguere il vero dal falso. Il problema non è la tecnologia in sé, ma l’uso che ne facciamo e la fiducia cieca che spesso le attribuiamo. Le IA generative non sono enciclopedie: sono specchi statistici. E come tutti gli specchi, possono deformare ciò che riflettono.