Microsoft e OpenAI hanno annunciato un fondo da 2 milioni di dollari per combattere i crescenti rischi legati all'uso dell'AI e delle deepfake per 'ingannare gli elettori e minare la democrazia'.
Quest'anno vedrà un record di 2 miliardi di persone recarsi alle urne in elezioni che coinvolgono circa 50 paesi, quindi ci sono preoccupazioni sull'influenza che l'AI avrà tra gli elettori, in particolare quelli delle 'comunità vulnerabili' che potrebbero essere più suscettibili a prendere ciò che vedono come verità assoluta.
L'ascesa dell'AI generativa, inclusi chatbot estremamente popolari come ChatGPT, ha portato a un nuovo panorama di minacce che coinvolge le deepfake generate dall'AI progettate per perpetuare disinformazione. Non aiuta il fatto che questi nuovi strumenti siano ampiamente disponibili e consentano a chiunque di creare video, foto o audio falsi di entità politiche di alto profilo.
Già lunedì, la Commissione Elettorale dell'India ha esortato i partiti politici a evitare di utilizzare deepfake e disinformazione simile nelle loro campagne online legate alle elezioni.
È in questo contesto che tutte le principali aziende tecnologiche, inclusi Microsoft e OpenAI, hanno firmato impegni volontari per contrastare tali rischi, nonché pianificato di costruire un framework comune per affrontare le deepfake create esplicitamente per ingannare gli elettori.
In altri contesti, le principali aziende di AI hanno iniziato ad affrontare questi rischi introducendo restrizioni nei loro software. Ad esempio, Google ha dichiarato che non consentirà al suo chatbot di AI Gemini di rispondere a domande sulle elezioni, mentre la società madre di Facebook, Meta, sta limitando le risposte relative alle elezioni tramite il suo chatbot di AI.
Oggi, OpenAI ha lanciato un nuovo rilevatore di deepfake per i ricercatori sulla disinformazione, progettato per aiutare a identificare contenuti falsi generati dal proprio generatore di immagini DALL-E, mentre si è anche unito al comitato direttivo di un organismo di settore, la Coalizione per la Provenienza e l'Autenticità dei Contenuti (C2PA), che conta già membri come Adobe, Microsoft, Google e Intel.
Il nuovo 'fondo di resilienza sociale' fa parte di questo più ampio impulso all'AI 'responsabile', con Microsoft e OpenAI che ora si impegnano a 'incrementare l'istruzione e l'alfabetizzazione sull'AI tra gli elettori e le comunità vulnerabili', secondo un post sul blog delle aziende pubblicato oggi. Ciò comporterà l'erogazione di sovvenzioni a un'ampia serie di organizzazioni, tra cui Older Adults Technology Services (OATS), la Coalition for Content Provenance and Authenticity (C2PA), l'International Institute for Democracy and Electoral Assistance (International IDEA), e la Partnership on AI (PAI).
Secondo quanto dichiarato da Microsoft, queste sovvenzioni sono destinate a creare una migliore comprensione dell'AI e delle sue capacità in tutta la società. Ad esempio, OATS utilizzerà apparentemente la sua sovvenzione per programmi di formazione rivolti a coloro che hanno più di 50 anni negli Stati Uniti, coprendo gli 'aspetti fondamentali dell'AI'.
'Il lancio del Fondo di resilienza sociale è solo un passo che rappresenta l'impegno di Microsoft e OpenAI per affrontare le sfide e i bisogni nello spazio dell'alfabetizzazione e dell'istruzione sull'AI', ha dichiarato Teresa Hutson, vicepresidente tecnologico e di responsabilità aziendale di Microsoft, nel post sul blog. 'Microsoft e OpenAI continueranno a dedicarsi a questo lavoro e continueremo a collaborare con organizzazioni e iniziative che condividono i nostri obiettivi e valori'.'