Entro il terzo giorno dopo gli argini in corso nell’agosto 2005, la disinformazione a New Orleans sull’illegalità e il saccheggio era dilagante. È diventato così pervasivo che molti sforzi di recupero a seguito dell’atterraggio dell’uragano Katrina furono interrotti o ritardati.
Nel 2018, un’ondata di incendi in California ha scatenato la propria ondata di disinformazione. Il rappresentante degli Stati Uniti Marjorie Taylor Greene (R-Ga.) Ha affermato che i “laser spaziali ebraici” e la famiglia Rothschild erano responsabili della devastazione.
Dalle voci sull’illegalità ai tweet sugli incendi laser spaziali, le catastrofi naturali hanno una comprovata tendenza a creare una tempesta di disinformazione che può influire sulla risposta alle emergenze.
Uno studio dell’International Institute for Applied System Analysis (IIASA), un istituto di ricerca internazionale con sede a Laxenburg, in Austria, cerca di capire come gli strumenti di intelligenza artificiale possono essere sfruttati per mitigare la diffusione di disinformazione durante le situazioni di emergenza. Guidato da Nadejda Komendantova e Dmitry Erokhin, lo studio fa parte di un campo di ricerca in crescita all’intersezione di apprendimento automatico e disinformazione.
“Questa ricerca ha avuto origine dalla comprensione che la disinformazione durante le catastrofi naturali rappresenta una grave minaccia per la sicurezza pubblica e l’efficacia della risposta alle emergenze”, ha affermato Komendantova. “L’urgenza e la complessità di questo problema sono diventate particolarmente evidenti negli ultimi anni”, a causa del ruolo dei social media e della maggiore minaccia di condizioni meteorologiche estreme, che possono diventare sempre più gravi a causa dell’incredibile domanda di energia della stessa tecnologia di intelligenza artificiale.
Finanziato dall’Unione Europea, lo studio impiega un’analisi del caso di studio e una progettazione di revisione della letteratura narrativa. Komendantova ed Erokhin esaminano tre strumenti di intelligenza artificiale: elaborazione del linguaggio naturale (NLP), algoritmi di apprendimento automatico e sistemi di monitoraggio in tempo reale. Ogni strumento ha un ruolo diverso da svolgere nell’identificare la disinformazione e mitigare la sua diffusione.
NLP consente ai computer di interpretare e analizzare il linguaggio umano su larga scala. “Una delle applicazioni primarie della PNL nel rilevamento di disinformazione è l’analisi del sentimento”, spiegano i ricercatori. Ciò significa che questi sistemi possono valutare il tono dei post online, categorendoli come positivi, negativi o neutrali. Secondo i ricercatori, un picco di sentimento negativo attorno a un argomento specifico potrebbe suggerire una raffica di false affermazioni. Poiché la PNL può scansionare rapidamente enormi quantità di contenuti, è uno strumento potente per monitorare la disinformazione online.
Gli algoritmi di apprendimento automatico fanno un ulteriore passo avanti. Formazione su grandi set di dati, questi sistemi imparano a riconoscere i modelli su come si diffonde in genere la disinformazione. Possono quindi contrassegnare contenuti simili in futuro e prevedere quali false narrazioni o teorie della cospirazione potrebbero emergere prima che si verifichino il disastro. Anche gli algoritmi di apprendimento automatico migliorano nel tempo in quanto vengono alimentati nuovi dati.
Infine, i sistemi di monitoraggio in tempo reale forniscono costante sorveglianza del panorama delle informazioni digitali. Questi strumenti scansionano automaticamente i siti Web, le notizie e i social media per parole chiave specifiche o tipi di contenuti. “Raccogliendo continuamente dati, i sistemi di monitoraggio in tempo reale possono garantire che abbiano informazioni aggiornate sullo stato attuale della disinformazione”, affermano i ricercatori. Dopo aver raccolto i dati, il sistema può avvisare le autorità necessarie.
Nonostante i recenti progressi nella capacità dell’IA di rilevare e combattere la disinformazione, ciascuno di questi strumenti ha limiti significativi.
La disinformazione viene spesso creata e diffusa intenzionalmente. “Le tattiche in costante evoluzione di coloro che creano e diffondono disinformazione presentano una sfida persistente ai sistemi di intelligenza artificiale”, ha affermato Komendantova. “Man mano che gli attori di disinformazione si adattano sviluppando nuove tecniche di lingua, immagini o diffusione, i modelli di intelligenza artificiale devono essere aggiornati e riqualificati per riconoscere questi nuovi schemi.”
L’IA stessa è stata sempre più utilizzata per diffondere disinformazione attraverso i conti del bot e l’imaging generativo, ma questo studio non si è concentrato specificamente su queste tecniche di diffusione.
L’intelligenza artificiale ha anche difficoltà a comprendere le sfumature culturali nel linguaggio e l’uso dell’ironia e del sarcasmo da parte degli attori di disinformazione, limitando le sue capacità di rilevamento.
Indipendentemente da questi limiti, “lo studio ha scoperto che l’intelligenza artificiale può svolgere un ruolo vitale nel rilevare e mitigare la disinformazione durante le catastrofi naturali”, ha affermato Komendantova, aiutando potenzialmente le comunità in prima linea nella crisi climatica a costruire la resilienza. La loro ricerca ha scoperto che gli algoritmi di apprendimento automatico addestrati dai post sui social media durante l’uragano Harvey potrebbero essere usati per identificare e prevedere la diffusione di informazioni false online, come relazioni imprecise sulle evacuazioni obbligatorie e sulla disponibilità dei rifugi, che si stabiliscono per frenare il panico e la confusione.
Anche prima dell’ascesa dell’IA avanzata, la tecnologia ha dimostrato il suo potenziale nella lotta alla disinformazione legata al disastro. Dopo il devastante terremoto di Haiti del 2010, la mappatura delle crisi si è rivelata vitale nel coordinare gli sforzi di soccorso, ha scoperto lo studio. L’opinione no profit Ushahidi ha lanciato una piattaforma di mappatura entro poche ore dal terremoto di magnitudo 7,0, utilizzando i dati di crowdsourcing da messaggi di testo, social media e notizie per individuare le aree in urgente bisogno. Oggi, l’IA può automatizzare gran parte di questo processo, raccogliendo, verificando e mappando rapidamente le informazioni in tempo reale.
Liberando il tempo vitale, gli strumenti di intelligenza artificiale “consentono ai soccorritori di dare la priorità ai loro sforzi e allocare le risorse in modo più efficace”, scrivono Komendantova ed Erokhin.
I chatbot di AI-i programmi per computer che usano l’IA per simulare conversazioni simili all’uomo e rispondere agli utenti in tempo reale-sono stati distribuiti anche negli ultimi anni per combattere la disinformazione naturale delle catastrofi.
Durante il cofano pandemico, i chatbot AI, come il “coronabot” del Center for Disease Control, sono stati usati per aiutare a diffondere informazioni accurate e tempestive nel tentativo di combattere teorie cospirative diffuse e costruire fiducia pubblica.
Allo stesso modo, la Croce Rossa ha schierato il suo chatbot, Clara, per contrastare le teorie della cospirazione durante i doppi uragani di Milton ed Helene nel 2024.
“La nostra ricerca dimostra che la distribuzione dell’IA può aiutare a migliorare il processo decisionale durante le crisi garantendo che informazioni accurate e tempestive raggiungano le persone colpite”, ha affermato Komendantova.
Il successo generale dell’utilizzo di intelligenza artificiale in contesti di catastrofi dipende dalla capacità degli sviluppatori di tecnologia e delle agenzie di gestione delle emergenze di creare fiducia pubblica, secondo Komendantova ed Erokhin.
“Man mano che l’IA diventa più spiegabile e trasparente, è probabile che la fiducia pubblica in questi strumenti cresca”, ha detto Komendantova.
Ma la fiducia del pubblico potrebbe essere difficile da costruire attraverso l’IA durante le catastrofi naturali, ha affermato Joseph Uscinski, professore all’Università di Miami e esperto di teorie della cospirazione e disinformazione.
“È certamente vero che l’intelligenza artificiale potrebbe essere in grado di parlare delle persone dalle teorie della cospirazione, ma potrebbe essere difficile durante le catastrofi naturali”, afferma USCINSKI. “Le persone potrebbero avere a che fare con l’ansia in modo tale che cambiare idea possa essere difficile.”
Coloro che vivono gli effetti di catastrofi naturali e disinformazione potrebbero non avere il tempo o le risorse per accedere ai chatbot o ai post affidabili sui social media, ha affermato.
Inoltre, i pensieri cospiratoriali sono un prodotto delle complesse visioni del mondo delle persone, tra cui l’identità di gruppo e le credenze ideologiche. Queste credenze non sono cambiate rapidamente e “le persone non vanno in giro per aspettare che l’IA cambi idea”, ha detto Uscinski.
Nonostante le sue preoccupazioni per l’uso di intelligenza artificiale in ambienti di catastrofi naturali, ha detto: “Vale sicuramente la pena provare”.
Komendantova sostiene una serie di azioni da intraprendere per migliorare la fiducia del pubblico e la capacità dell’intelligenza artificiale di combattere la disinformazione delle catastrofi naturali. Queste includono pratiche trasparenti, etiche di intelligenza artificiale, governance dei dati, educazione degli utenti e regolamentazione dell’intelligenza artificiale.
Poiché l’utilizzo dell’intelligenza artificiale continua a svilupparsi, le tattiche di disinformazione continuano a cambiare e il tempo grave continua a peggiorare, in questo settore sono necessarie ulteriori ricerche.
“La ricerca futura dovrebbe concentrarsi sul miglioramento della comprensione contestuale dell’IA negli scenari di disastro, nello sviluppo di modelli più robusti e meno distorti e affrontando le preoccupazioni sulla privacy, sulla trasparenza e sull’equità”, ha affermato Komendantova. “Il campo trarrà beneficio da una maggiore collaborazione interdisciplinare, che riunisce competenze da informatica, scienze sociali, gestione delle emergenze e etica per sviluppare soluzioni pratiche e olistiche.”
Con questi miglioramenti in mente, Komendantova è fiducioso che l’IA sarà incorporata con successo nella gestione della risposta alle emergenze e nelle piattaforme di informazione nel prossimo futuro. Pensa che l’IA andrà oltre il semplice rilevamento di disinformazione e verrà utilizzata per contrastare efficacemente i chatbot, la mappatura delle crisi e come “partner informatico in tempo reale” per i soccorritori.
Su questa storia
Forse hai notato: questa storia, come tutte le notizie che pubblichiamo, è libera di leggere. Questo perché Inside Climate News è un’organizzazione no profit 501C3. Non addebitiamo una quota di abbonamento, chiuviamo le nostre notizie dietro un paywall o ingombri il nostro sito Web con annunci. Facciamo le nostre notizie sul clima e sull’ambiente liberamente disponibili per te e chiunque lo voglia.
Non è tutto. Condividiamo anche le nostre notizie gratuitamente con decine di altre organizzazioni mediatiche in tutto il paese. Molti di loro non possono permettersi di fare giornalismo ambientale proprio. Abbiamo costruito uffici da costa a costa per segnalare storie locali, collaborare con redazioni locali e articoli di co-pubblicazione in modo che questo lavoro vitale sia condiviso il più ampiamente possibile.
Due di noi hanno lanciato ICN nel 2007. Sei anni dopo abbiamo ottenuto un premio Pulitzer per i rapporti nazionali e ora gestiamo la redazione climatica dedicata più antica e più grande della nazione. Raccontiamo la storia in tutta la sua complessità. Riteniamo responsabili degli inquinanti. Esponiamo l’ingiustizia ambientale. Abbiamo sfatato la disinformazione. Scrutiamo le soluzioni e ispiriamo azioni.
Donazioni da lettori come te finanziano ogni aspetto di ciò che facciamo. Se non lo fai già, sosterrai il nostro lavoro in corso, le nostre segnalazioni sulla più grande crisi per il nostro pianeta e ci aiuteranno a raggiungere ancora più lettori in più luoghi?
Per favore, prenditi un momento per fare una donazione deducibile dalle tasse. Ognuno di loro fa la differenza.
Grazie,