Para dar às mulheres acadêmicas focadas em IA e outras o destaque merecido - e atrasado - que merecem, o TechCrunch está lançando uma série de entrevistas focadas em mulheres notáveis que contribuíram para a revolução da IA. Publicaremos várias peças ao longo do ano, à medida que o boom da IA continua, destacando trabalhos importantes que muitas vezes passam despercebidos. Leia mais perfis
Kristine Gloria anteriormente liderou a Iniciativa de Tecnologias Emergentes e Inteligentes do Aspen Institute - o Aspen Institute sendo o think tank sediado em D.C. focado em liderança baseada em valores e expertise em políticas. Gloria possui um PhD em ciência cognitiva e um mestrado em estudos de mídia, e seu trabalho passado inclui pesquisa na Iniciativa de Políticas da Internet do MIT, no Laboratório de Políticas de Startups baseado em São Francisco e no Centro de Sociedade, Tecnologia e Política na UC Berkeley.
Q&A
Brevemente, como você começou na IA? O que a atraiu para o campo?
Para ser franca, definitivamente não comecei minha carreira em busca de estar na IA. Primeiramente, eu estava realmente interessada em entender a interseção entre tecnologia e política pública. Na época, eu estava trabalhando no meu mestrado em estudos de mídia, explorando ideias em torno da cultura de remix e propriedade intelectual. Eu estava morando e trabalhando em D.C. como bolsista Archer na New America Foundation. Um dia, me lembro claramente de estar em uma sala cheia de formuladores de políticas públicas e políticos que estavam lançando termos que não se encaixavam totalmente em suas definições técnicas reais. Foi pouco depois desta reunião que percebi que, para fazer diferença na política pública, eu precisava das credenciais. Voltei para a escola, obtendo meu doutorado em ciência cognitiva com uma concentração em tecnologias semânticas e privacidade do consumidor online. Tive muita sorte de encontrar um mentor e orientador e um laboratório que incentivava uma compreensão interdisciplinar de como a tecnologia é projetada e construída. Portanto, afiei minhas habilidades técnicas ao lado do desenvolvimento de um ponto de vista mais crítico sobre as muitas maneiras como a tecnologia se cruza com nossas vidas. Em meu papel de diretora de IA no Aspen Institute, tive o privilégio de idealizar, envolver e colaborar com alguns dos principais pensadores em IA. E sempre me vi gravitando em direção àqueles que dedicaram tempo para questionar profundamente se e como a IA impactaria nossas vidas cotidianas.
Ao longo dos anos, liderei várias iniciativas de IA e uma das mais significativas está apenas começando. Agora, como membro fundador e diretora de parcerias estratégicas e inovação em uma nova organização sem fins lucrativos, Young Futures, estou animada em incorporar esse tipo de pensamento para alcançar nossa missão de tornar o mundo digital um lugar mais fácil para crescer. Especificamente, à medida que a IA generativa se torna essencial e novas tecnologias entram em cena, é urgente e crítico que ajudemos pré-adolescentes, adolescentes e suas unidades de apoio a navegar por esta vasta selva digital juntos.
Qual trabalho você mais se orgulha (no campo da IA)?
Estou mais orgulhosa de duas iniciativas. Primeiro, meu trabalho relacionado à visualização das tensões, falhas e efeitos da IA sobre comunidades marginalizadas. Publicado em 2021, 'Poder e Progresso no Viés Algorítmico' articula meses de engajamento de partes interessadas e pesquisa sobre esse problema. No relatório, nós propomos uma das minhas questões favoritas de todos os tempos: 'Como podemos (operadores de dados e algoritmos) reformular nossos próprios modelos para prever um futuro diferente, um que se concentre nas necessidades dos mais vulneráveis?' Safiya Noble é a autora original dessa pergunta, e é uma consideração constante ao longo do meu trabalho. A segunda iniciativa mais importante veio recentemente do meu tempo como chefe de Dados na Blue Fever, uma empresa em missão para melhorar o bem-estar dos jovens em um espaço online sem julgamentos e inclusivo. Especificamente, liderei o design e desenvolvimento do Blue, o primeiro companheiro de apoio emocional de IA. Aprendi muito neste processo. Mais salientemente, ganhei uma nova apreciação profunda pelo impacto que um companheiro virtual pode ter em alguém que está lutando ou que pode não ter os sistemas de apoio em vigor. O Blue foi projetado e construído para trazer sua 'energia de irmão mais velho' para ajudar a orientar os usuários a refletir sobre suas necessidades mentais e emocionais.
Como você navega nos desafios da indústria de tecnologia dominada por homens e, por extensão, na indústria de IA dominada por homens?
Infelizmente, os desafios são reais e ainda muito atuais. Já experimentei minha cota de descrença em minhas habilidades e experiências entre todos os tipos de colegas no mercado. Mas, para cada um desses desafios negativos, posso apontar um exemplo de um colega homem sendo meu maior incentivador. É um ambiente difícil, e guardo esses exemplos para me ajudar a lidar. Também acho que muita coisa mudou nesse espaço mesmo nos últimos cinco anos. Os conjuntos de habilidades necessários e as experiências profissionais que qualificam como parte de 'IA' não são mais estritamente focados em ciência da computação.
Que conselho você daria às mulheres que buscam entrar no campo da IA?
Entre e siga sua curiosidade. Este espaço está em constante movimento, e a busca mais interessante (e provavelmente mais produtiva) é estar continuamente crítica e otimista sobre o campo em si.
Quais são algumas das questões mais urgentes que a IA enfrenta à medida que evolui?
Na verdade, acho que algumas das questões mais urgentes enfrentadas pela IA são as mesmas questões que ainda não acertamos desde a introdução da web. São questões em torno de agência, autonomia, privacidade, equidade e assim por diante. Estes são aspectos fundamentais de como nos situamos entre as máquinas. Sim, a IA pode tornar tudo muito mais complicado - mas também podem os deslocamentos socio-políticos.
Quais são algumas questões de que os usuários de IA devem estar cientes?
Os usuários de IA devem estar cientes de como esses sistemas complicam ou melhoram sua própria agência e autonomia. Além disso, à medida que o discurso em torno de como a tecnologia, e especialmente a IA, pode impactar nosso bem-estar, é importante lembrar que existem ferramentas comprovadas para gerenciar resultados mais negativos.
Qual é a melhor maneira de construir IA de forma responsável?
Uma construção responsável de IA é mais do que apenas o código. Uma construção verdadeiramente responsável leva em consideração o design, governança, políticas e modelo de negócios. Todos impulsionam o outro, e continuaremos a falhar se nos esforçarmos apenas para abordar uma parte da construção.
Como os investidores podem pressionar melhor por uma IA responsável?
Uma tarefa específica, que admiro a Mozilla Ventures por exigir em sua diligência, é um cartão de modelo de IA. Desenvolvida por Timnit Gebru e outros, essa prática de criar cartões de modelo permite que equipes - como financiadores - avaliem os riscos e questões de segurança dos modelos de IA usados em um sistema. Além disso, relacionado ao acima, os investidores devem avaliar holisticamente o sistema em sua capacidade e habilidade de ser construído de forma responsável. Por exemplo, se você possui recursos de confiança e segurança na construção ou um cartão de modelo publicado, mas seu modelo de receita explora dados de populações vulneráveis, então há um desalinhamento com sua intenção como investidor. Acredito que você pode construir de forma responsável e ainda ser lucrativo. Por fim, gostaria de ver mais oportunidades de financiamento colaborativas entre investidores. No domínio do bem-estar e saúde mental, as soluções serão variadas e vastas, uma vez que nenhuma pessoa é igual e nenhuma solução pode resolver tudo. Ação coletiva entre investidores interessados em resolver o problema seria uma adição bem-vinda.
.