“AI e disinformazione: il rapporto del World Economic Forum mette in guardia dalla minaccia alla democrazia”

Secondo un rapporto del World Economic Forum pubblicato mercoledì, i rischi posti dalle fake news e dalla disinformazione alimentate dall’intelligenza artificiale stanno aprendo nuovi orizzonti nella diffusione della disinformazione e minacciando la democrazia.

Secondo l’ultimo Global Risks Report, una serie di rischi ambientali figurano tra le maggiori minacce a lungo termine. Il rapporto è stato pubblicato prima dell’incontro annuale degli amministratori delegati e dei leader globali a Davos, in Svizzera, e si basa su un sondaggio condotto tra quasi 1.500 esperti, dirigenti del settore e responsabili politici.

Il rapporto classifica le fake news e la disinformazione come il rischio più grave per i prossimi due anni, sottolineando che i rapidi progressi tecnologici creano anche nuovi problemi o peggiorano quelli esistenti.

Gli autori temono che l’ascesa dei chatbot con intelligenza artificiale generativa, come ChatGPT, significhi che la creazione di sofisticati contenuti sintetici che possono essere utilizzati per manipolare gruppi di persone non sarà più limitata a persone con competenze specialistiche.

Si prevede che l’intelligenza artificiale sarà un tema caldo la prossima settimana agli incontri di Davos, che dovrebbero includere dirigenti di aziende tecnologiche come il CEO di OpenAI Sam Altman, il CEO di Microsoft Satya Nadella e attori del settore, tra cui il capo esperto di intelligenza artificiale di Meta, Yann LeCun.

La disinformazione e le fake news alimentate dall’intelligenza artificiale stanno diventando un rischio poiché miliardi di persone in molti paesi, comprese le principali economie come Stati Uniti, Regno Unito, Indonesia, India, Messico e Pakistan, quest’anno si recheranno alle urne.

“È possibile sfruttare l’intelligenza artificiale per creare deepfake e avere un impatto reale su grandi gruppi, il che alimenta davvero la disinformazione”, ha affermato Carolina Klint, responsabile della gestione del rischio presso Marsh, la cui società madre, Marsh McLennan, ha co-scritto il rapporto con il gruppo assicurativo di Zurigo.

“Le società potrebbero diventare ancora più polarizzate” poiché le persone trovano più difficile verificare i fatti, ha affermato. Le fake news potrebbero anche essere usate per mettere in discussione la legittimità dei governi eletti, “il che significa che i processi democratici potrebbero essere erosi, il che porterebbe anche a una polarizzazione sociale ancora maggiore”, ha detto Klint.

L’ascesa dell’intelligenza artificiale presenta anche una serie di altri rischi, ha affermato. Può consentire agli “attori malintenzionati” di facilitare gli attacchi informatici, ad esempio automatizzando i tentativi di phishing o creando malware avanzati. Con l’intelligenza artificiale, “non devi essere il più intelligente per essere un cattivo attore”, ha detto Klint.

Può persino contaminare i dati raccolti da Internet per addestrare altri sistemi di intelligenza artificiale, il che è “estremamente difficile da invertire” e potrebbe portare all’introduzione di ulteriori pregiudizi nei modelli di intelligenza artificiale, ha aggiunto.

L’altra principale preoccupazione globale tra gli intervistati nell’indagine sui rischi era il cambiamento climatico. Dopo la disinformazione e le false informazioni, le condizioni meteorologiche estreme rappresentano il secondo rischio più urgente a breve termine.

Nel lungo termine, definito in dieci anni, le condizioni meteorologiche estreme sono state descritte come la minaccia principale, seguita da altri quattro rischi ambientali: cambiamenti critici nei sistemi terrestri; perdita di biodiversità e collasso degli ecosistemi; e la carenza di risorse naturali.

“Potremmo superare il punto di svolta irreversibile del cambiamento climatico” nel prossimo decennio, poiché i sistemi terrestri subiranno cambiamenti a lungo termine, ha affermato Klint.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *