Per dare alle donne accademiche focalizzate sull'IA e ad altre il loro meritato - e ritardato - momento di luce, TechCrunch ha pubblicato una serie di interviste incentrate su donne straordinarie che hanno contribuito alla rivoluzione dell'IA. Pubblicheremo questi pezzi durante tutto l'anno mentre il boom dell'IA continua, mettendo in evidenza lavori chiave che spesso passano inosservati. Leggi altri profili qui.
Oggi in primo piano: Allison Cohen, responsabile senior dei progetti di IA applicata presso Mila, una comunità con sede in Quebec di oltre 1.200 ricercatori specializzati in IA e apprendimento automatico. Lavora con ricercatori, scienziati sociali e partner esterni per implementare progetti di IA socialmente utili. Il portfolio di lavoro di Cohen include uno strumento che rileva la misoginia, un'app per identificare l'attività online di presunte vittime di tratta di esseri umani e un'app agricola per raccomandare pratiche agricole sostenibili in Ruanda.
In precedenza, Cohen è stata co-leader nella scoperta di farmaci basati su IA presso il Global Partnership on Artificial Intelligence, un'organizzazione per guidare lo sviluppo e l'uso responsabile dell'IA. Ha anche lavorato come consulente strategico di IA presso Deloitte e come consulente di progetto presso il Center for International Digital Policy, un think tank canadese indipendente.
Q&A
Brevemente, come hai iniziato la tua carriera nell'IA? Cosa ti ha attratto in questo campo?
La realizzazione che potevamo modellare matematicamente tutto, dal riconoscimento dei volti alla negoziazione di accordi commerciali, ha cambiato il mio modo di vedere il mondo, ed è ciò che ha reso l'IA così affascinante per me. Ironicamente, ora che lavoro nell'IA, mi rendo conto che non possiamo - e in molti casi non dovremmo - catturare questo tipo di fenomeni con algoritmi.
Sono stata esposta al campo mentre completavo un master in affari globali all'Università di Toronto. Il programma era progettato per insegnare agli studenti a navigare nei sistemi che influenzano l'ordine mondiale - tutto, dall'economia macro alla legge internazionale alla psicologia umana. Man mano che ho imparato di più sull'IA, però, ho riconosciuto quanto sarebbe diventata vitale per la politica mondiale e quanto fosse importante educarmi sull'argomento.
Ciò che mi ha permesso di entrare nel campo è stato un concorso di scrittura di saggi. Per il concorso, ho scritto un documento in cui descrivevo come le droghe psichedeliche avrebbero aiutato gli esseri umani a rimanere competitivi in un mercato del lavoro pieno di IA, il che mi ha qualificato per partecipare al Simposio di St. Gallen nel 2018 (era un pezzo di scrittura creativa). Il mio invito e la successiva partecipazione a quell'evento mi hanno dato la fiducia di continuare a perseguire il mio interesse nel campo.
Di quale lavoro sei più orgogliosa nel campo dell'IA?
Uno dei progetti che ho gestito coinvolgeva la creazione di un set di dati contenente casi di espressioni di pregiudizio contro le donne, sia sottili che evidenti.
Per questo progetto, è stato fondamentale assumere e gestire un team multidisciplinare di esperti di elaborazione del linguaggio naturale, linguisti e specialisti in studi di genere durante l'intero ciclo di vita del progetto. È qualcosa di cui sono abbastanza orgogliosa. Ho imparato di persona perché questo processo è fondamentale per la costruzione di applicazioni responsabili e anche perché non viene fatto abbastanza - è un lavoro duro! Se riesci a sostenere ciascuno di questi portatori di interessi nel comunicare efficacemente tra discipline, puoi facilitare il lavoro che fonde tradizioni pluridecennali delle scienze sociali e sviluppi all'avanguardia nell'informatica.
Sono anche orgogliosa che questo progetto sia stato ben accolto dalla comunità. Uno dei nostri articoli è stato messo in evidenza nel workshop di modellazione del linguaggio socialmente responsabile in una delle principali conferenze sull'IA, NeurIPS. Inoltre, questo lavoro ha ispirato un processo interdisciplinare simile gestito da AI Sweden, che ha adattato il lavoro per adattarsi alle nozioni e alle espressioni di misoginia svedesi.
Come affronti le sfide dell'industria tecnologica dominata dagli uomini e, per estensione, dall'industria dell'IA dominata dagli uomini?
È sfortunato che in un'industria così all'avanguardia stiamo ancora assistendo a dinamiche di genere problematiche. Non sta influenzando negativamente solo le donne - stiamo perdendo tutti. Sono stata molto ispirata da un concetto chiamato "teoria della prospettiva femminista" che ho imparato nel libro di Sasha Costanza-Chock, "Design Justice".
La teoria sostiene che le comunità marginalizzate, le cui conoscenze e esperienze non beneficiano degli stessi privilegi di altri, hanno una consapevolezza del mondo che può apportare un cambiamento equo e inclusivo. Naturalmente, non tutte le comunità marginalizzate sono uguali, così come non lo sono le esperienze degli individui all'interno di quelle comunità.
Ciò detto, una varietà di prospettive da quei gruppi è fondamentale per aiutarci a navigare, sfidare e smantellare tutti i tipi di sfide strutturali ed disuguaglianze. Ecco perché una mancanza di inclusione delle donne può rendere il campo dell'IA esclusivo per un'ampia fetta della popolazione, rafforzando dinamiche di potere al di fuori del settore così come all'interno dello stesso.
Per quanto riguarda come ho affrontato un'industria dominata dagli uomini, ho scoperto che gli alleati sono piuttosto importanti. Questi alleati sono il prodotto di relazioni forti e di fiducia. Ad esempio, sono stata molto fortunata ad avere amici come Peter Kurzwelly, che ha condiviso la sua esperienza nel podcasting per sostenermi nella creazione di un podcast guidato e centrato sulle donne chiamato “The World We're Building”. Questo podcast ci consente di valorizzare il lavoro di ancora più donne e persone non binarie nel campo dell'IA.
Quale consiglio daresti alle donne che cercano di entrare nel campo dell'IA?
Trova una porta aperta. Non dev'essere retribuita, non dev'essere una carriera e non dev'essere nemmeno allineata al tuo background o esperienza. Se riesci a trovare un'apertura, puoi usarla per affinare la tua voce nello spazio e costruire da lì. Se ti offri volontario, dacci tutto te stesso: ti permetterà di distinguerti e sperabilmente essere pagato per il tuo lavoro il prima possibile.
Ovviamente, c'è un privilegio nel poter fare volontariato, che voglio anche riconoscere.
Quando ho perso il lavoro durante la pandemia e la disoccupazione era ai massimi storici in Canada, poche aziende cercavano di assumere talenti di IA, e quelle che stavano assumendo non cercavano studenti di affari globali con otto mesi di esperienza in consulenza. Mentre cercavo lavoro, ho iniziato a fare volontariato presso un'organizzazione di etica dell'IA.
Uno dei progetti a cui ho lavorato durante il volontariato riguardava se ci dovrebbe essere protezione del copyright per l'arte prodotta da IA. Ho contattato un avvocato presso uno studio legale canadese di IA per comprendere meglio lo spazio. Lei mi ha messo in contatto con qualcuno a CIFAR, che mi ha messo in contatto con Benjamin Prud'homme, il direttore esecutivo del team AI per l'Umanità di Mila. È incredibile pensare che attraverso una serie di scambi su arte di AI, ho appreso su un'opportunità di carriera che ha trasformato la mia vita da allora.
Quali sono alcune delle questioni più urgenti che l'IA deve affrontare man mano che evolve?
Ho tre risposte a questa domanda che sono in qualche modo interconnesse. Penso che dobbiamo capire:
- Come conciliare il fatto che l'IA è progettata per essere scalabile garantendo che gli strumenti che stiamo costruendo siano adattati alle conoscenze, esperienze e necessità locali.
- Se dobbiamo costruire strumenti adattati al contesto locale, dovremo incorporare antropologi e sociologi nel processo di progettazione dell'IA. Ma ci sono una miriade di strutture di incentivi e altri ostacoli che impediscono una collaborazione interdisciplinare significativa. Come possiamo superare tutto ciò?
- Come possiamo influenzare il processo di progettazione in modo ancora più profondo rispetto semplicemente incorporando competenze multidisciplinari? In particolare, come possiamo modificare gli incentivi in modo tale che progettiamo strumenti pensati per coloro che ne hanno bisogno con urgenza piuttosto che per coloro la cui raccolta dati o attività commerciale sono più redditizie?
Quali sono alcune questioni di cui gli utenti di IA dovrebbero essere consapevoli?
Lo sfruttamento del lavoro è una delle questioni che non credo riceva abbastanza copertura. Ci sono molti modelli di IA che apprendono dai dati etichettati utilizzando metodi di apprendimento supervisionato. Quando il modello si basa sui dati etichettati, ci sono persone che devono fare questo tagging (ad esempio, qualcuno aggiunge l'etichetta 'gatto' a un'immagine di un gatto). Queste persone (annotatori) sono spesso soggette a pratiche sfruttative. Per i modelli che non richiedono che i dati siano etichettati durante il processo di formazione (come nel caso di alcune IA generative e altri modelli fondamentali), i set di dati possono comunque essere costruiti in modo sfruttativo in quanto gli sviluppatori spesso non ottengono il consenso né forniscono compensi o credito agli autori dei dati
Consiglierei di dare un'occhiata al lavoro di Krystal Kauffman, che sono stata così contenta di vedere presentato in questa serie di TechCrunch. Sta facendo progressi nella difesa dei diritti del lavoro degli annotatori, compreso un salario dignitoso, la fine delle pratiche di "reiezione di massa" e pratiche di coinvolgimento che sono in linea con i diritti umani fondamentali (in risposta a sviluppi come la sorveglianza invadente).
Qual è il modo migliore per costruire responsabilmente l'IA?
Spesso le persone guardano ai principi di IA etica per sostenere che la loro tecnologia è responsabile. Sfortunatamente, la riflessione etica può iniziare solo dopo che sono stati presi una serie di decisioni, inclusi ma non limitati a:
- Cosa stai costruendo?
- Come lo stai costruendo?
- Come verrà implementato?
Se aspetti che queste decisioni siano già state prese, avrai perso innumerevoli opportunità per costruire una tecnologia responsabile.
Nella mia esperienza, il modo migliore per costruire un'IA responsabile è essere conscienti — fin dalle prime fasi del tuo processo — su come il problema è definito e su quali interessi soddisfa; come l'orientamento supporta o sfida le dinamiche di potere preesistenti; e quali comunità saranno responsabilizzate o svantaggiate attraverso l'uso dell'IA.
Se vuoi creare soluzioni significative, devi navigare attentamente questi sistemi di potere.
Come possono gli investitori spingere meglio per un'IA responsabile?
Chiedi quali sono i valori del team. Se i valori sono definiti, almeno in parte, dalla comunità locale e vi è un grado di responsabilità verso quella comunità, è più probabile che il team incorpori pratiche responsabili.