Para dar às mulheres acadêmicas focadas em IA e outras o merecido - e tardio - destaque, o TechCrunch está lançando uma série de entrevistas focadas em mulheres notáveis que contribuíram para a revolução da IA. Vamos publicar várias peças ao longo do ano, à medida que o boom da IA continua, destacando trabalhos-chave que muitas vezes passam despercebidos. Leia mais perfis
Brandie Nonnecke é a diretora fundadora do CITRIS Policy Lab, sediado na UC Berkeley, que apoia pesquisas interdisciplinares para abordar questões sobre o papel da regulação na promoção da inovação. Nonnecke também é co-diretora do Berkeley Center for Law and Technology, onde lidera projetos sobre IA, plataformas e sociedade, e do UC Berkeley AI Policy Hub, uma iniciativa para treinar pesquisadores a desenvolver estruturas eficazes de governança e política de IA.
No seu tempo livre, Nonnecke apresenta uma série de vídeos e podcasts, TecHype, que analisa políticas emergentes de tecnologia, regulamentações e leis, fornecendo insights sobre os benefícios e riscos e identificando estratégias para aproveitar a tecnologia para o bem.
Q&A
Brevemente, como você entrou para a área de IA? O que te atraiu para o campo?
Estou trabalhando em governança responsável de IA há quase uma década. Minha formação em tecnologia, políticas públicas e sua interseção com impactos sociais me atraiu para o campo. A IA já é pervasiva e impactante em nossas vidas - para o bem e para o mal. É importante para mim contribuir de maneira significativa para a capacidade da sociedade de aproveitar essa tecnologia para o bem, em vez de ficar à margem.
Qual trabalho você mais se orgulha (no campo da IA)?
Estou muito orgulhosa de duas coisas que alcançamos. Primeiro, a Universidade da Califórnia foi a primeira universidade a estabelecer princípios de IA responsável e uma estrutura de governança para garantir melhor a aquisição e uso responsáveis de IA. Levamos a sério nosso compromisso de servir o público de maneira responsável. Tive a honra de co-presidir o Grupo de Trabalho Presidencial da UC sobre IA e seu subsequente Conselho Permanente de IA. Nesses papéis, pude adquirir experiência prática pensando em como operacionalizar da melhor forma nossos princípios de IA responsável a fim de proteger nosso corpo docente, funcionários, estudantes e as comunidades mais amplas que servimos. Em segundo lugar, acho crítico que o público entenda as tecnologias emergentes e seus benefícios e riscos reais. Lançamos o TecHype, uma série de vídeos e podcasts que desmistifica as tecnologias emergentes e fornece orientações sobre intervenções técnicas e de políticas eficazes.
Como você navega pelos desafios da indústria de tecnologia dominada por homens e, por extensão, pela indústria de IA dominada por homens?
Seja curiosa, persistente e não se abale pelo síndrome do impostor. Descobri que é crucial buscar mentores que apoiam a diversidade e a inclusão e oferecer o mesmo apoio a outras pessoas que estão entrando na área. Construir comunidades inclusivas na tecnologia tem sido uma maneira poderosa de compartilhar experiências, conselhos e encorajamento.
Que conselho você daria às mulheres que buscam entrar na área de IA?
Para as mulheres que estão entrando na área de IA, meu conselho é triplo: Busque conhecimento incansavelmente, pois a IA é um campo em constante evolução. Abrace o networking, pois as conexões abrirão portas para oportunidades e oferecerão um apoio inestimável. E defenda-se e defenda os outros, pois sua voz é essencial na formação de um futuro inclusivo e equitativo para a IA. Lembre-se, suas perspectivas e experiências únicas enriquecem o campo e impulsionam a inovação.
Quais são alguns dos problemas mais urgentes enfrentados pela IA à medida que evolui?
Acredito que um dos problemas mais urgentes enfrentados pela IA à medida que evolui é não ficar preso nos últimos ciclos de hype. Estamos vendo isso agora com a IA generativa. Claro, a IA generativa apresenta avanços significativos e terá um impacto tremendo - bom e ruim. Mas outras formas de aprendizado de máquina estão em uso hoje que estão tomando decisões de forma sorrateira que afetam diretamente a capacidade de todos exercerem seus direitos. Em vez de nos concentrarmos nas últimas maravilhas do aprendizado de máquina, é mais importante que nos concentremos em como e onde o aprendizado de máquina está sendo aplicado, independentemente de sua destreza tecnológica.
Quais são alguns problemas dos quais os usuários de IA devem estar cientes?
Os usuários de IA devem estar cientes de questões relacionadas à privacidade e segurança de dados, o potencial de viés na tomada de decisões de IA e a importância da transparência na forma como os sistemas de IA operam e tomam decisões. Compreender essas questões pode capacitar os usuários a exigir sistemas de IA mais responsáveis e equitativos.
Qual é a melhor maneira de construir IA de forma responsável?
Construir IA de forma responsável envolve a integração de considerações éticas em todas as fases do desenvolvimento e implementação. Isso inclui o envolvimento de partes interessadas diversas, metodologias transparentes, estratégias de gerenciamento de viés e avaliações contínuas de impacto. Priorizar o bem público e garantir que as tecnologias de IA sejam desenvolvidas com direitos humanos, justiça e inclusividade em seu cerne são fundamentais.
Como os investidores podem pressionar de forma mais eficaz por uma IA responsável?
Esta é uma pergunta tão importante! Por muito tempo nunca discutimos explicitamente o papel dos investidores. Não posso expressar o suficiente o impacto dos investidores! Acredito que o clichê de que “a regulação sufoca a inovação” é usado em excesso e muitas vezes é falso. Em vez disso, acredito firmemente que empresas menores podem experimentar uma vantagem de mover-se tardiamente e aprender com as maiores empresas de IA que vêm desenvolvendo práticas de IA responsáveis e as orientações emergentes da academia, sociedade civil e governo. Os investidores têm o poder de moldar a direção da indústria tornando práticas de IA responsáveis um fator crítico em suas decisões de investimento. Isso inclui apoiar iniciativas que se concentrem em enfrentar desafios sociais por meio da IA, promover a diversidade e a inclusão na força de trabalho de IA e defender estratégias de governança e técnicas sólidas que ajudem a garantir que as tecnologias de IA beneficiem a sociedade como um todo.