L'India, esperta nell'utilizzo della tecnologia per persuadere il pubblico, è diventata un centro globale per capire come l'IA viene utilizzata e abusata nel dibattito politico, e specificamente nel processo democratico. Le aziende tecnologiche, che hanno creato gli strumenti inizialmente, stanno facendo viaggi nel paese per spingere soluzioni.
All'inizio di quest'anno, Andy Parsons, direttore senior di Adobe responsabile del coinvolgimento dell'azienda nell'iniziativa cross-industry Content Authenticity Initiative (CAI), è entrato nel vortice quando ha fatto un viaggio in India per incontrare media e organizzazioni tecnologiche nel paese per promuovere strumenti che possono essere integrati nei flussi di contenuti per identificare e segnalare contenuti generati da AI.
“Invece di rilevare cosa sia falso o manipolato, noi come società, e questa è una preoccupazione internazionale, dovremmo iniziare a dichiarare l'autenticità, cioè dire se qualcosa è generato da AI, ciò dovrebbe essere noto ai consumatori”, ha detto in un'intervista.
Parsons ha aggiunto che alcune aziende indiane—attualmente non fa parte di un accordo di sicurezza delle elezioni AI di Monaco firmato da OpenAI, Adobe, Google e Amazon a febbraio—intendevano costruire una simile alleanza nel paese.
“La legislazione è una cosa molto delicata. Presumere che il governo legislifichi correttamente e abbastanza rapidamente in qualsiasi giurisdizione è qualcosa di difficile da affidare. È meglio che il governo adotti un approccio molto prudente e prenda il suo tempo”, ha detto.
Gli strumenti di rilevamento sono famigeratamente inconsistente, ma sono un inizio per risolvere alcuni dei problemi, o almeno questo è l'argomento.
“Il concetto è già ben compreso”, ha detto durante il suo viaggio a Delhi. “Sto contribuendo a sensibilizzare sul fatto che gli strumenti sono già pronti. Non è solo un'idea. Questo è qualcosa che è già stato implementato.”
Il CAI—che promuove standard royalty-free e aperti per identificare se i contenuti digitali sono stati generati da una macchina o da un essere umano—precede l'attuale hype intorno all'IA generativa: è stato fondato nel 2019 e ora conta 2.500 membri, inclusi Microsoft, Meta e Google, il The New York Times, il The Wall Street Journal e la BBC.
Così come esiste un'industria che si sta sviluppando intorno al business di sfruttare l'IA per creare media, ne esiste una più piccola che si sta creando per cercare di correggere alcune delle applicazioni più nefaste di questo.
Quindi nel febbraio 2021, Adobe è andato un passo oltre nel costruire uno di quei standard e ha co-fondato il Coalizione per provenienza e autenticità dei contenuti (C2PA) con ARM, BBC, Intel, Microsoft e Truepic. La coalizione mira a sviluppare uno standard aperto, che sfrutta i metadati di immagini, video, testi e altri media per evidenziarne la provenienza e informare le persone sull'origine del file, sulla posizione e l'orario della sua generazione e se è stato alterato prima di arrivare all'utente. Il CAI lavora con il C2PA per promuovere lo standard e renderlo disponibile alle masse.
Adesso sta coinvolgendo attivamente i governi come quello dell'India per allargare l'adozione di tale standard per evidenziare la provenienza dei contenuti di AI e partecipare con le autorità nello sviluppo di linee guida per l'avanzamento dell'IA.
Adobe non ha nulla ma anche tutto da perdere giocando un ruolo attivo in questo gioco. Non sta — ancora — acquisendo o costruendo modelli di linguaggio di grandi dimensioni (LLM) propri, ma essendo la casa di app come Photoshop e Lightroom, è il leader del mercato negli strumenti per la comunità creativa, quindi non solo sta creando nuovi prodotti come Firefly per generare contenuti di AI in modo nativo, ma sta anche infondendo prodotti legacy con AI. Se il mercato si sviluppa come alcuni credono che farà, l'IA sarà un must-have nel mix se Adobe vuole restare al top. Se i regolatori (o il buon senso) hanno la loro via, il futuro di Adobe potrebbe dipendere da quanto successo ha nel garantire che ciò che vende non contribuisca al caos.
Il quadro più ampio in India in ogni caso è effettivamente un caos.
Google si è concentrato sull'India come banco di prova su come vietare l'uso del suo strumento di IA generativa Gemini quando si tratta di contenuti elettorali; le parti stanno armiorganizzando l'IA per creare meme con somiglianze di avversari; Meta ha istituito una “linea di assistenza” deepfake per WhatsApp, tale è la popolarità della piattaforma di messaggistica nella diffusione di messaggi alimentati da AI; e in un momento in cui i paesi stanno suonando sempre più allarmati per la sicurezza dell'IA e cosa devono fare per garantirla, vedremo quale sarà l'impatto della decisione del governo indiano a marzo di rilassare le regole su come vengono costruiti, testati e implementati i nuovi modelli di IA. È certamente destinato a stimolare più attività di IA, in ogni caso.
Utilizzando il suo standard aperto, il C2PA ha sviluppato un'etichetta nutrizionale digitale per i contenuti chiamata Content Credentials. I membri del CAI stanno lavorando per implementare il marchio digitale sui loro contenuti per far sapere agli utenti la loro origine e se sono stati generati da AI. Adobe ha Content Credentials in tutte le sue herramientas creative, tra cui Photoshop e Lightroom. Si aggancia automaticamente anche ai contenuti generati da AI dal modello AI di Adobe Firefly. L'anno scorso, Leica ha lanciato la sua fotocamera con le Content Credentials incorporate, e Microsoft ha aggiunto Content Credentials a tutte le immagini generate da AI create utilizzando Bing Image Creator.
Parsons ha detto a TechCrunch che il CAI sta parlando con i governi mondiali su due aree: una è quella di aiutare a promuovere lo standard come standard internazionale, e l'altra è di adottarlo.
“In un anno elettorale, è particolarmente critico per i candidati, i partiti, gli uffici degli attuali governi e le amministrazioni che rilasciano continuamente materiale ai media e al pubblico assicurarsi che sia noto che se qualcosa viene rilasciato dall'ufficio del PM [Narendra] Modi, è effettivamente dall'ufficio del PM Modi. Ci sono stati molti casi in cui non è così. Quindi, capire che qualcosa è veramente autentico per i consumatori, i verificatori dei fatti, le piattaforme e gli intermediari è molto importante”, ha detto.
La grande popolazione dell'India, la vasta diversità di lingua e demografica rendono difficile frenare la disinformazione, ha aggiunto, un voto a favore di etichette semplici per affrontare questo problema.
“È un po' ‘CR’ ... sono due lettere occidentali come la maggior parte degli strumenti Adobe, ma questo indica che c'è più contesto da mostrare”, ha detto.
Continua la controversia su quale potrebbe essere il vero obiettivo dietro le aziende tecnologiche che supportano qualsiasi tipo di misura di sicurezza dell'IA: si tratta davvero di una preoccupazione esistenziale, o solo di avere un posto al tavolo per dare l'impressione di una preoccupazione esistenziale, tutto mentre si assicurano che i propri interessi siano tutelati nel processo di elaborazione delle regole?
“In generale non è controverso per le aziende coinvolte, e tutte le aziende che hanno firmato l'ultimo accordo di Monaco, tra cui Adobe, che si sono riunite, hanno abbandonato le pressioni competitive perché queste idee sono qualcosa che tutti dobbiamo fare”, ha detto in difesa del lavoro.