"Sapevi che il colosso di Barletta…", come riconoscere le fake news con intelligenza artificiale
Spesso diventano virali contenuti generati con intelligenza artificiale, ma con tante inesattezze
martedì 10 marzo 2026
Il web è sempre più gremito di contenuti generati con strumenti di intelligenza artificiale e condivisi spesso senza esplicitarne la provenienza non umana. Questi contenuti possono essere testi, video e immagini detti synthetic media. Spesso contengono inesattezze ed errori più o meno difficilmente riconoscibili.
In questo caso, infatti, i barlettani e i conoscitori dell'argomento in questione sono in grado sin da subito di riconoscere l'informazione falsa, ma più in generale potrebbero esserci difficoltà per tutti. Inoltre, i sistemi di intelligenza artificiale sono in costante miglioramento tanto da rendere ancora più difficoltoso il riuscire a riconoscere se un contenuto sia stato generato da una macchina o da un essere umano, mettendo anche in dubbio l'affidabilità di tutti i contenuti presenti sul web.
Per quanto riguarda i contenuti testuali, è bene far riferimento alla coerenza dello scritto (corretta dal punto di vista grammaticale ma con poco senso compiuto in generale); frasi, modelli lessicali e concetti che si ripetono; brevità delle frasi e presenza di numerosi paragrafi; imprecisioni ed errori nelle informazioni (allucinazioni dell'AI); testo apatico; mancanza di fonti riconducibili alle informazioni riportate.
Le immagini e i video generati dall'AI sono sempre più vicini esteticamente e tecnicamente a foto e video reali e, proprio per la loro natura estetica, sono materiale di facile successo virale, rimbalzando da un profilo utente all'altro. D'altro canto, è più facile che quando ci si trova davanti a immagini o video manipolati tramite l'intelligenza artificiale, questo venga esplicitato tramite il disclaimer 'Immagine generata tramite intelligenza artificiale' o il tag 'AI-generated' e simili, come da regolamento europeo AI Act.
Se si tratta di notizie legate al nostro territorio, non c'è nulla di più sicuro delle testate giornalistiche e pagine di informazione locale, che, oltre ad essere 100% human, seguono dei principi professionali e un codice deontologico, mettendo al primo posto il rispetto per i lettori.
Il caso: l'AI smascherata
Ne è un esempio il post condiviso sui social da una pagina che conta piu di 1 mln di followers. L'immagine condivisa è del tutto fuorviante e potrebbe confondere le idee dei meno esperti, seppur riporta al margine l'avvertimento: 'AI immagine a scopo illustrativo'. Con essa la sinossi della descrizione del post, entrambe piene zeppe di imprecisioni. A grandi caratteri 'Barletta custodisce uno dei pochi colossi romani ancora in piedi in Europa: una statua di bronzo alta 5 metri che rappresenta un imperatore identificato ancora oggi con incertezza, rimasta sotterrata per quasi 1000 anni.' e nella descrizione del post una spiegazione quasi del tutto scorretta (si racconta addirittura che il colosso Eraclio sarebbe custodito nel museo civico della città) di cui non sono specificate nemmeno le fonti. Ovviamente i barlettani non hanno dubitato nel commentare sul social denunciando le inesattezze riportate.In questo caso, infatti, i barlettani e i conoscitori dell'argomento in questione sono in grado sin da subito di riconoscere l'informazione falsa, ma più in generale potrebbero esserci difficoltà per tutti. Inoltre, i sistemi di intelligenza artificiale sono in costante miglioramento tanto da rendere ancora più difficoltoso il riuscire a riconoscere se un contenuto sia stato generato da una macchina o da un essere umano, mettendo anche in dubbio l'affidabilità di tutti i contenuti presenti sul web.
Come riconoscere i contenuti generati dall'intelligenza artificiale?
Allora, come fare a riconoscere un synthetic media, soprattutto se riporta inesattezze, errori e falsità? Per smascherarli, sicuramente non devono mancare un bel po' di intuito e buon senso mentre si legge o si guarda qualsiasi cosa sullo schermo.Per quanto riguarda i contenuti testuali, è bene far riferimento alla coerenza dello scritto (corretta dal punto di vista grammaticale ma con poco senso compiuto in generale); frasi, modelli lessicali e concetti che si ripetono; brevità delle frasi e presenza di numerosi paragrafi; imprecisioni ed errori nelle informazioni (allucinazioni dell'AI); testo apatico; mancanza di fonti riconducibili alle informazioni riportate.
Le immagini e i video generati dall'AI sono sempre più vicini esteticamente e tecnicamente a foto e video reali e, proprio per la loro natura estetica, sono materiale di facile successo virale, rimbalzando da un profilo utente all'altro. D'altro canto, è più facile che quando ci si trova davanti a immagini o video manipolati tramite l'intelligenza artificiale, questo venga esplicitato tramite il disclaimer 'Immagine generata tramite intelligenza artificiale' o il tag 'AI-generated' e simili, come da regolamento europeo AI Act.
I nostri consigli
Il consiglio è quello di non credere a tutto quello che vediamo sugli schermi dei nostri dispositivi, non condividere e diffondere contenuti dubbi e/o di dubbia provenienza, informarsi tramite canali ufficiali e riconosciuti, assicurarsi della veridicità di informazioni e delle fonti e imparare a riconoscere i contenuti AI generated.Se si tratta di notizie legate al nostro territorio, non c'è nulla di più sicuro delle testate giornalistiche e pagine di informazione locale, che, oltre ad essere 100% human, seguono dei principi professionali e un codice deontologico, mettendo al primo posto il rispetto per i lettori.