Daniela Amodei, da Anthropic, conta como mantém sua sanidade (e seus princípios) em meio à febre da IA

Amodei resized

Amodei fundou a Anthropic com seu irmão, Dario. A empresa pretende manter os humanos no foco da história da IA.

Para Daniela Amodei, cofundadora e presidente da Anthropic, empresa de IA criativa, a repentina explosão do interesse por sua área foi uma oportunidade para reflexão. “É avassalador pensar na reação do mundo todo à IA”, diz ela. “Internamente, nos perguntamos: por que fizemos isso? Por que fundamos a Anthropic? A resposta, desde o início, é que queremos tornar os sistemas de IA mais seguros.”

Desde fevereiro, a Anthropic, fundada como corporação de interesse público e especializada em segurança e pesquisa de IA, anunciou uma parceria com a Google, fechou uma rodada de financiamento de US$ 450 milhões e lançou o chatbot Claude (e a nova versão, Claude 2, lançada ontem). Nos dois anos anteriores, a empresa trabalhou na criação de um grande modelo de linguagem ao mesmo tempo em que gerenciava uma expansão e publicava pesquisas, liderando a discussão sobre inteligência artificial nos mundos da mídia, da política e da própria tecnologia. Em meio a esse crescimento, a Anthropic procurou a Stripe em busca da capacidade de expansão e internacionalização da plataforma de pagamentos para atender cada vez mais clientes no mundo inteiro.

Amodei contou para a Stripe por que ela acredita que essa missão ampla é importante e por que ela acha que uma empresa com o objetivo de ajudar a humanidade pode ter sucesso em um mercado competitivo e superlotado.

Qual é o significado do nome Anthropic? Por que escolheram essa palavra?

Uma razão é que “Anthropic” (“antrópico”, em português) significa “relacionado ao ser humano” e, como trabalhamos com ferramentas de IA criativa cada vez mais poderosas que interagem com o mundo, consideramos fundamental manter o foco da história nos humanos. Esperamos que o Claude seja usado como um parceiro ou colaborador que ajuda os humanos a realizar seus planos e levar a vida que desejam. Também mantemos os humanos no centro de nosso processo, seja no aprendizado por reforço a partir do feedback das pessoas, seja meramente pensando em como a IA afeta o mundo.

Como essa missão foi resumida em um conjunto de projetos específico definido no lançamento?

Quando saímos da OpenAI, precisamos criar um novo grande modelo criativo de linguagem do zero. No primeiro ano, nos concentramos em colocar a empresa para andar, captar recursos e cuidar dos detalhes práticos, com foco no treinamento desse grande modelo de linguagem.

Mas também fizemos pesquisas de segurança adicionais para que ele fosse o modelo mais seguro do mercado. Quando começamos, tínhamos cerca de seis equipes, a maioria trabalhando na segurança adicional ou direta do modelo. Nosso plano sempre foi gerar um produto, mas até uns seis ou nove meses atrás, éramos um fornecedor de pesquisas.

Para você, qual a vantagem de ter físicos trabalhando nessas questões? Foi uma escolha intencional?

Meu irmão Dario, que é o CEO, é doutor em física, assim como o diretor de ciências, Jared Kaplan, que também é um dos cofundadores. Então foi em parte uma questão de contatos, mas também acho que muito do trabalho que gerou reconhecimento para a equipe foi desenvolvido por pessoas dessa área. Acho que somos mais conhecidos por duas coisas: somos a equipe que desenvolveu o GPT-3 e que escreveu o artigo sobre leis de escala, que aborda como prever quando certos recursos surgirão em um sistema de IA criativa. Essa pesquisa veio da aplicação de princípios da física à IA.

Você já trabalha na área há um bom tempo, mas parece ela foi descoberta por todo o resto do mundo de uma vez só. Como é fundar uma empresa no meio do furacão?

Comentei com meu marido que a sensação é como se estivesse descendo as escadas rápido demais. Se eu pensar demais no que estou fazendo, vou cair na certa. Mas isso não quer dizer que não haja reflexões, pois sempre considerei importante seguir nossos princípios e assumir nosso papel. A reação do mundo todo à inteligência artificial pode ser avassaladora, e é complicado ponderar as interações de diferentes grupos e partes interessadas. Internamente, nos perguntamos: por que fizemos isso? Por que fundamos a Anthropic? A resposta, desde o início, é que queremos tornar os sistemas de IA mais seguros.

Como você vende para investidores e potenciais parceiros o valor da cautela e da ponderação?

O mercado busca confiança e segurança. Consideramos que essa é a abordagem certa do ponto de vista moral, mas também comercial. É claro que, em alguns casos, os dois lados podem entrar em conflito, mas percebemos bastante sincronia na nossa experiência.

Pessoas físicas ou jurídicas não querem modelos que produzam resultados nocivos, desonestos ou inúteis. Se você oferecer um modelo de linguagem que mente na metade das vezes e tem chance de produzir conteúdo tóxico, nenhum consumidor terá vontade de abrir a carteira. As pessoas dizem que desejam falsos positivos muito mais próximos de zero do que temos nas opções atuais. Elas querem a versão mais segura do modelo.

Como é um dia típico para você?

Não gosto de acordar cedo por natureza, mas precisei me adaptar. Agora me exercito quase todas as manhãs bem cedo, e depois fico um pouco com meu filho, Galileo, e meu marido. Isso me ajuda a começar o dia de bom humor.

Faço o possível para ter umas duas horas livres no começo do dia de trabalho para lidar com grandes projetos e ter tempo livre para pensar. O resto do dia é ocupado com reuniões — minha agenda é muito mais administrativa do que criativa. É uma série de reuniões individuais, em equipes, eventos externos, reuniões estratégicas e decisórias, recrutamento e outras. Sempre tento abrir espaço para conhecer os novos funcionários e saber como está sendo a experiência deles na Anthropic, mas o crescimento da empresa tem deixado essa parte cada vez mais puxada!

Tyler Cowen escreveu recentemente na Bloomberg que a IA poderia acabar com as grandes estruturas corporativas que conhecemos hoje, porque o produto se gerencia sozinho. Você acha que a Anthropic pode acabar precisando aumentar de tamanho?

A unidade de valor criada por pesquisador deve ser maior do que em empresas tradicionais, mas ainda precisamos de um certo número de pessoas para vender os produtos, fazer atendimento ao cliente e cuidar do controle de qualidade. Quando desenvolvemos o Claude v1, éramos cerca de 60 pessoas. Agora estamos perto de 140, e o crescimento ocorreu principalmente nos setores de administração e de produto, que agora conta com mais profissionais de atendimento ao cliente e confiança e segurança.