科技

Donne nell'IA: Sarah Bitamazire aiuta le aziende ad implementare l'IA responsabile

Per dare alle donne accademiche e ad altre donne focalizzate sull'IA il tempo che meritano, e che è in ritardo, TechCrunch sta lanciando una serie di interviste focalizzate su donne notevoli che hanno contribuito alla rivoluzione dell'IA.

Sarah Bitamazire è il chief policy officer presso la boutique di consulenza Lumiera, dove aiuta anche a redigere la newsletter Lumiera Loop, che si concentra sull'alfabetizzazione dell'IA e sull'adozione responsabile dell'IA.

Prima di questo, lavorava come consulente politico in Svezia, focalizzata sull'uguaglianza di genere, sulla legislazione sugli affari esteri e sulle politiche di sicurezza e difesa.

Brevemente, come hai iniziato nel campo dell'IA? Cosa ti ha attratto del settore?

L'IA mi ha trovata! L'IA ha avuto un impatto sempre maggiore nei settori in cui sono stata profondamente coinvolta. Comprendere il valore dell'IA e le sue sfide è diventato imperativo per poter offrire consigli validi ai decisori di alto livello. In primo luogo, all'interno della difesa e della sicurezza dove l'IA è utilizzata nella ricerca e nello sviluppo e nella guerra attiva. In secondo luogo, nell'arte e nella cultura, i creatori sono stati tra i primi a vedere il valore aggiunto dell'IA, così come le sfide. Hanno contribuito a portare alla luce le questioni legate al copyright che sono emerse, come nel caso in corso in cui diversi giornali quotidiani stanno citando in giudizio OpenAI.

Sai che qualcosa sta avendo un enorme impatto quando leader con background e punti di dolore molto diversi ti chiedono sempre di più, 'Puoi farmi un briefing su questo? Tutti ne stanno parlando.'

Con quali lavori sei più orgogliosa nel campo dell'IA?

Abbiamo recentemente lavorato con un cliente che aveva provato e non era riuscito ad integrare l'IA nei loro flussi di lavoro di ricerca e sviluppo. Lumiera ha creato una strategia di integrazione dell'IA con una roadmap su misura per le loro esigenze e sfide specifiche. La combinazione di un portfolio di progetti AI selezionati, un processo strutturato di gestione del cambiamento e una leadership che ha riconosciuto il valore del pensiero multidisciplinare hanno reso questo progetto un enorme successo.

Come affronti le sfide dell'industria tecnologica dominata dagli uomini e, di conseguenza, dell'industria dell'IA dominata dagli uomini?

Essendo molto chiara sul perché. Sono attivamente impegnata nell'industria dell'IA perché c'è un proposito più profondo e un problema da risolvere. La missione di Lumiera è fornire una guida completa ai leader permettendo loro di prendere decisioni responsabili con fiducia in un'era tecnologica. Questo senso di scopo rimane lo stesso indipendentemente dallo spazio in cui ci muoviamo. Dominato dagli uomini o meno, l'industria dell'IA è enorme e sempre più complessa. Nessuno può vedere l'intera immagine, e abbiamo bisogno di più prospettive per poter imparare l'uno dall'altro. Le sfide che esistono sono enormi, e tutti dobbiamo collaborare.

Quale consiglio daresti alle donne che cercano di entrare nel campo dell'IA?

Entrare nell'IA è come imparare una nuova lingua, o acquisire un nuovo set di competenze. Ha un enorme potenziale per risolvere sfide in vari settori. Quale problema vuoi risolvere? Scopri come l'IA può essere una soluzione, e poi concentrati su risolvere quel problema. Continua ad imparare e mettiti in contatto con persone che ti ispirano.

Cosa sono alcune delle questioni più urgenti che l'IA deve affrontare mentre evolve?

La velocità con cui l'IA sta evolvendo è un problema di per sé. Credo che fare questa domanda spesso e regolarmente sia una parte importante per poter navigare nello spazio dell'IA con integrità. Facciamo questo ogni settimana alla Lumiera nella nostra newsletter.

Ecco alcune che mi vengono in mente ora: Hardware e geopolitica dell'IA: Gli investimenti del settore pubblico nell'hardware dell'IA (GPU) probabilmente aumenteranno poiché i governi di tutto il mondo approfondiscono la loro conoscenza sull'IA e iniziano a compiere mosse strategiche e geopolitiche. Finora c'è movimento da paesi come Regno Unito, Giappone, Emirati Arabi Uniti e Arabia Saudita. Questo è uno spazio da tenere d'occhio.

Benchmark dell'IA: Continuando a fare affidamento sempre di più sull'IA, è essenziale capire come misurare e confrontare le sue prestazioni. Scegliere il modello giusto per un determinato caso d'uso richiede una ponderata considerazione. Il miglior modello per le tue esigenze potrebbe non essere necessariamente quello in cima a una classifica. Poiché i modelli stanno cambiando così velocemente, l'accuratezza dei benchmark fluttuerà anche.

Bilancia l'automazione con la supervisione umana: Che tu ci creda o no, l'over-automazione è una cosa. Le decisioni richiedono giudizio umano, intuizione e comprensione del contesto. Questo non può essere replicato attraverso l'automazione.

Qualità e governance dei dati: Dove si trovano i dati buoni?! I dati fluiscono dentro, attraverso e fuori dalle organizzazioni ogni secondo. Se quei dati sono poveramente governati, la tua organizzazione non trarrà beneficio dall'IA, punto e basta. E a lungo andare, questo potrebbe essere dannoso. La tua strategia sui dati è la tua strategia sull'IA. L'architettura di sistema dei dati, la gestione e la proprietà devono far parte della discussione.

Di quali questioni dovrebbero essere consapevoli gli utenti dell'IA?

Gli algoritmi e i dati non sono perfetti: Come utente, è importante essere critici e non fidarsi ciecamente dell'output, specialmente se si sta utilizzando tecnologia appena uscita dalla scatola. La tecnologia e gli strumenti in cima sono nuovi ed in evoluzione, quindi tienilo presente e aggiungi il buon senso.

Consumo energetico: I requisiti computazionali per l'addestramento di grandi modelli di IA combinati con i requisiti energetici di funzionamento e raffreddamento dell'infrastruttura hardware necessaria portano a un alto consumo di elettricità. Gartner ha fatto previsioni che entro il 2030, l'IA potrebbe consumare fino al 3,5% dell'elettricità mondiale.

Formarsi e utilizzare diverse fonti: La competenza nell'IA è fondamentale! Per poter fare buon uso dell'IA nella tua vita e sul lavoro, devi essere in grado di prendere decisioni informate riguardo al suo utilizzo. L'IA dovrebbe aiutarti nel prendere decisioni, non prendere decisioni al posto tuo.

Densità prospettica: Devi coinvolgere persone che conoscono davvero il loro spazio di problema per capire che tipo di soluzioni possono essere create con l'IA, e fare questo durante tutto il ciclo di sviluppo dell'IA.

La stessa cosa vale per l'etica: Non è qualcosa che può essere aggiunto 'sopra' un prodotto di IA una volta che è stato creato— le considerazioni etiche devono essere inserite fin dall'inizio e durante il processo di costruzione, a partire dalla fase di ricerca. Ciò viene fatto conducendo valutazioni sull'impatto sociale ed etico, mitigando i pregiudizi, e promuovendo responsabilità e trasparenza.

Quando si costruisce l'IA, riconoscere i limiti delle competenze all'interno di un'organizzazione è essenziale. I divari sono opportunità di crescita: ti consentono di prioritizzare le aree in cui devi cercare competenze esterne e sviluppare meccanismi di responsabilità robusti. Fattori tra cui le competenze attuali, la capacità del team e le risorse finanziarie disponibili dovrebbero essere valutati. Questi fattori, tra gli altri, influenzeranno la tua roadmap sull'IA.

Come gli investitori possono spingere meglio per un'IA responsabile?

Innanzitutto, come investitore, vuoi assicurarti che il tuo investimento sia solido e duri nel tempo. Investire in un'IA responsabile semplicemente salvaguarda i rendimenti finanziari e attenua i rischi legati, ad esempio, alla fiducia, alla regolamentazione e alle preoccupazioni sulla privacy.

Gli investitori possono spingere per un'IA responsabile guardando agli indicatori di leadership e utilizzo responsabile dell'IA. Una chiara strategia sull'IA, risorse dedicate all'IA responsabile, politiche sull'IA responsabile pubblicate, pratiche di governance solide e integrazione del feedback di rinforzo umano sono fattori da considerare. Questi indicatori dovrebbero far parte di un solido processo di due diligence. Più scienza, meno decisioni soggettive. Disinvestire dalle pratiche di IA non etiche è un altro modo per incoraggiare soluzioni di IA responsabili.

Related Articles

Back to top button Back to top button