La “guerra digitale”: in campo i fake Ai dell’Iran
Le ultime ore, dominate dall'incertezza sulle informazioni. Perciò molte analisi lanciano l'allarme
(Fonte: CloudSek)
La “guerra digitale” dell’Iran: il debutto delle satellite deepfakes, come i fake Ai fanno propaganda interna ed esterna. Mentre i missili solcano i cieli del Medio Oriente, una seconda guerra, invisibile e digitale, sta ridefinendo il concetto di “fog of war”. Le ultime ore, dominate dall’incertezza sulle informazioni. Di contro, molte analisi lanciano l’allarme. Testate vicine a Teheran e account social pro-Iran stanno diffondendo immagini satellitari generate dall’Ai che mostrano attacchi a basi americane o a Israele.
La prova del nove: il watermark SynthID e i “veicoli fantasma”
Non si tratta di semplici fotomontaggi. Gli analisti hanno individuato prove tecniche inconfutabili. Il marchio di Google rivela quanto accade. Strumenti di rilevamento hanno rintracciato su diverse immagini il watermark SynthID, un segnale digitale invisibile che identifica i contenuti creati con l’intelligenza artificiale di Google.
Poi, gli errori nel matrix. In un’immagine della base navale Usa in Bahrain diffusa dal Tehran Times, gli esperti hanno notato tre auto parcheggiate esattamente nella stessa posizione di una foto satellitare reale del 2025. Un’impossibilità fisica che rivela come l’Ai abbia usato vecchie mappe come “base” per generare macerie artificiali.
Ancora, geometrie impossibili. Tal Hagin, un analista digitale, ha segnalato coordinate geografiche inesistenti e ombre incoerenti in video che mostrano presunte esplosioni a Tel Aviv o Dubai.
Perché è un caso senza precedenti?
È la prima volta nella storia militare che l’Ai generativa viene usata su scala industriale per falsificare le prove satellitari, quelle finora considerate la “fonte suprema” di verità per gli investigatori digitali.
L’obiettivo di Teheran, non convincere il Pentagono (che ha i propri satelliti spia), ma saturare la scena informativa, anche a vantaggio interno.
L’aggressione mediatica all’opinione pubblica iraniana e globale e ai social media con successi militari fittizi rende quasi impossibile distinguere un attacco reale da uno generato da un algoritmo.
Perciò blog specializzati come CloudSEK e network di fact-checking come avvertono: oggi, vedere una foto dall’alto non significa più “poter credere” o assistere alla realtà work in progress.
Per questo Hany Farid, dell’Università di Berkeley. Uno dei massimi esperti mondiali di digital forensics, dice che l’Ai stia accorciando i tempi della propaganda: bastano “minuti invece di ore”.
Torna alle notizie in home