A AWS, o serviço de computação em nuvem da Amazon, deseja se tornar o local preferido das empresas para hospedar e ajustar seus modelos de IA generativos personalizados.
Hoje, a AWS anunciou o lançamento do Custom Model Import (em preview), um novo recurso no Bedrock, a suíte empresarial de serviços de IA generativa da AWS. O recurso permite que as organizações importem e acessem seus modelos de IA generativos internos como APIs totalmente gerenciadas.
Os modelos proprietários das empresas, uma vez importados, se beneficiam da mesma infraestrutura que outros modelos de IA generativa na biblioteca do Bedrock (por exemplo, o Llama 3 da Meta ou o Claude 3 da Anthropic). Eles também recebem ferramentas para expandir seu conhecimento, ajustá-los e implementar salvaguardas para mitigar seus vieses.
"Houve clientes da AWS que estavam ajustando ou construindo seus próprios modelos fora do Bedrock usando outras ferramentas", disse Vasi Philomin, vice-presidente de IA generativa da AWS, em entrevista ao TechCrunch. "Essa capacidade de Importação de Modelos Personalizados permite que eles tragam seus próprios modelos patenteados para o Bedrock e os vejam ao lado de todos os outros modelos que já estão no Bedrock - e os usem com todos os fluxos de trabalho que também já estão no Bedrock".
Importação de modelos personalizados
De acordo com uma pesquisa recente da Cnvrg, subsidiária da Intel focada em IA, a maioria das empresas está abordando a IA generativa construindo seus próprios modelos e refinando-os para suas aplicações. As empresas afirmam que veem a infraestrutura, incluindo a infraestrutura de computação em nuvem, como sua maior barreira para a implantação, de acordo com a pesquisa.
Com a Importação de Modelos Personalizados, a AWS visa preencher essa necessidade mantendo o ritmo dos concorrentes de nuvem. (O CEO da Amazon, Andy Jassy, antecipou tanto em sua recente carta anual aos acionistas.)
Por algum tempo, o Vertex AI, o equivalente do Google ao Bedrock, tem permitido que os clientes façam upload de modelos de IA generativos, ajustem-nos e os sirvam através de APIs. A Databricks, também há muito tempo, fornece conjuntos de ferramentas para hospedar e ajustar modelos personalizados, incluindo seu próprio DBRX recentemente lançado.
Perguntado sobre o que diferencia a Importação de Modelos Personalizados, Philomin afirmou que ela - e por extensão o Bedrock - oferece uma maior amplitude e profundidade de opções de personalização de modelos do que a concorrência, acrescentando que "dezenas de milhares" de clientes hoje estão usando o Bedrock.
"Em primeiro lugar, o Bedrock oferece várias maneiras para os clientes lidarem com a prestação de modelos", disse Philomin. "Em segundo lugar, temos uma série de fluxos de trabalho em torno desses modelos - e agora os clientes podem ficar ao lado de todos os outros modelos que já estão disponíveis. Uma coisa importante que a maioria das pessoas gosta sobre isso é a capacidade de poder experimentar em vários modelos diferentes usando os mesmos fluxos de trabalho e, em seguida, realmente levá-los à produção a partir do mesmo local".
Então, quais são as opções de personalização de modelos mencionadas?
Philomin aponta para Guardrails, que permite aos usuários do Bedrock configurar limites para filtrar - ou pelo menos tentar filtrar - as saídas dos modelos para coisas como discurso de ódio, violência e informações pessoais ou corporativas privadas. (Os modelos de IA generativos são conhecidos por sair dos trilhos de formas problemáticas, incluindo vazamento de informações sensíveis; os modelos da AWS não foram exceção.) Ele também destacou a Avaliação de Modelo, uma ferramenta do Bedrock que os clientes podem usar para testar como um modelo - ou vários - se saem em relação a um determinado conjunto de critérios.
Tanto os Guardrails quanto a Avaliação do Modelo estão agora disponíveis após vários meses em preview.
Devo observar aqui que a Importação de Modelos Personalizados atualmente suporta apenas três arquiteturas de modelo: Flan-T5 da Hugging Face, Llama da Meta e modelos Mistral. Além disso, o Vertex AI e outros serviços concorrentes do Bedrock, incluindo as ferramentas de desenvolvimento de IA da Microsoft no Azure, oferecem recursos de segurança e avaliação mais ou menos comparáveis (consulte Segurança de Conteúdo de IA da Azure, avaliação de modelos no Vertex, etc.).
No entanto, o que é único para o Bedrock são os modelos de IA generativos da família Titan da AWS. E, coincidindo com o lançamento da Importação de Modelos Personalizados, houve vários desenvolvimentos importantes nesse sentido.
Modelos Titan atualizados
O Titan Image Generator, o modelo de texto para imagem da AWS, agora está geralmente disponível após o lançamento em preview em novembro passado. Como antes, o Titan Image Generator pode criar novas imagens a partir de uma descrição de texto ou personalizar imagens existentes - por exemplo, trocar o fundo de uma imagem mantendo os sujeitos na imagem.
Comparado com a versão em preview, o Titan Image Generator na GA pode gerar imagens com mais "criatividade", disse Philomin sem entrar em detalhes. (Sua suposição sobre o que isso significa é tão boa quanto a minha.)
Perguntei a Philomin se ele tinha mais detalhes para compartilhar sobre como o Titan Image Generator foi treinado.
No lançamento do modelo em novembro passado, a AWS foi vaga sobre qual exatamente foi o dado utilizado no treinamento do Titan Image Generator. Poucos fornecedores revelam prontamente essas informações; eles veem os dados de treinamento como uma vantagem competitiva e, portanto, mantêm essas informações próximas ao peito.
Detalhes sobre os dados de treinamento também são uma fonte potencial de processos judiciais relacionados a propriedade intelectual, outro desincentivo para revelar muito. Vários casos em andamento nos tribunais rejeitam as defesas de uso justo dos fornecedores, argumentando que as ferramentas de texto para imagem replicam estilos de artistas sem a permissão explícita dos artistas e permitem que os usuários gerem novas obras semelhantes aos originais dos artistas, pelos quais os artistas não recebem pagamento.
Philomin apenas me disse que a AWS utiliza uma combinação de dados proprietários e licenciados.
"Temos uma combinação de fontes de dados proprietários, mas também licenciamos muitos dados", disse ele. "Na verdade, pagamos aos proprietários de direitos autorais taxas de licenciamento para podermos usar seus dados, e temos contratos com vários deles".
É mais detalhe do que obtivemos em novembro. Mas tenho a sensação de que a resposta de Philomin não satisfará a todos, principalmente os criadores de conteúdo e os éticos de IA que defendem uma maior transparência em torno do treinamento de modelos de IA generativos.
Em vez de transparência, a AWS diz que continuará oferecendo uma política de indenização que cobre os clientes no caso de um modelo Titan como o Titan Image Generator regurgitar (ou seja, cuspir uma cópia espelhada) um exemplo de treinamento potencialmente protegido por direitos autorais. (Vários concorrentes, incluindo Microsoft e Google, oferecem políticas semelhantes que cobrem seus modelos de geração de imagens.)
Para lidar com outra ameaça ética urgente - deepfakes - a AWS diz que as imagens criadas com o Titan Image Generator virão, como durante o preview, com uma marca d'água invisível "resistente a adulterações". Philomin diz que a marca d'água foi tornada mais resistente na versão GA à compressão e outras edições e manipulações de imagens.
Falando sobre um território menos controverso, perguntei a Philomin se a AWS, como o Google, a OpenAI e outros, está explorando a geração de vídeo dada a empolgação (e investimento) na tecnologia. Philomin não disse que a AWS não está ... mas ele não deu mais detalhes além disso.
"Obviamente, estamos constantemente procurando ver quais novas capacidades os clientes querem ter, e a geração de vídeo definitivamente surge em conversas com os clientes", disse Philomin. "Peço que fique atento".
Em uma última notícia relacionada ao Titan, a AWS lançou a segunda geração de seu modelo Titan Embeddings, Titan Text Embeddings V2. Este modelo converte texto em representações numéricas, chamadas embeddings, para alimentar aplicativos de busca e personalização. O modelo de Embeddings de primeira geração também fazia isso, mas a AWS afirma que o Titan Text Embeddings V2 é geralmente mais eficiente, econômico e preciso.
"O que o modelo Embeddings V2 faz é reduzir o armazenamento geral [necessário para usar o modelo] em até quatro vezes enquanto mantém 97% da precisão", afirmou Philomin, "superando outros modelos comparáveis".
Vamos ver se os testes no mundo real confirmam isso.