SAN FRANCISCO, 22 de outubro de 2025 – Enquanto grandes laboratórios de inteligência artificial constroem data centers bilionários na expectativa de que escalar poder computacional levará a sistemas superinteligentes, a cientista Sara Hooker segue na direção oposta. Ex-vice-presidente de pesquisa da Cohere e ex-Google Brain, ela apresentou discretamente neste mês a Adaption Labs, startup que pretende criar máquinas capazes de aprender continuamente a partir da própria experiência, de forma muito mais eficiente que os atuais modelos de linguagem de larga escala (LLMs).
Hooker cofundou a empresa com Sudip Roy, também veterano da Cohere e da Google. Em entrevista, a pesquisadora afirmou que o método empregado ainda é confidencial, mas adiantou que a estratégia rompe com a “fórmula entediante” de simplesmente aumentar o tamanho dos modelos.
Aprendizado em tempo real
Segundo Hooker, a indústria vive um ponto de inflexão: “Escalar deixou de produzir sistemas capazes de interagir com o mundo”. Para ela, a capacidade de adaptação — como evitar bater o pé na mesa após uma primeira topada — deve ser central nos novos sistemas. Técnicas de reforço (reinforcement learning) já tentam algo semelhante, mas, na visão da executiva, ainda não permitem que modelos em produção aprendam com erros em tempo real.
Grandes empresas oferecem serviços de ajuste fino, porém a custos elevados. A OpenAI, por exemplo, exigiria investimentos superiores a US$ 10 milhões de seus clientes para consultoria de fine-tuning, segundo fontes de mercado. “Temos poucos laboratórios definindo modelos caros de adaptar”, disse Hooker. “Isso não precisa mais ser verdade”.
Financiamento e metas ambiciosas
Investidores que analisaram o plano de negócios informam que a Adaption Labs fechou recentemente uma rodada seed entre US$ 20 milhões e US$ 40 milhões; a fundadora não confirma os valores, mas admite “ambição elevada” para o projeto.
Ceticismo sobre o hiper-escalonamento
A iniciativa reflete dúvidas crescentes sobre a eficácia de apenas aumentar LLMs. Estudo do MIT aponta retornos decrescentes nos maiores modelos do mundo, e figuras como o “pai” do aprendizado por reforço, Richard Sutton, questionam a falta de experiência real na formação dessas IAs. Até ex-OpenAI como Andrej Karpathy expressam reservas quanto à escalabilidade do RL.
Hooker já se destacou por treinar modelos compactos para empresas na Cohere e por recrutar pesquisadores de regiões sub-representadas, como a África. A Adaption Labs abrirá escritório em São Francisco, mas planeja contratações globais.
Se a aposta na aprendizagem adaptativa vingar, poderá redesenhar a distribuição de poder no setor, hoje concentrado em poucas corporações que investem bilhões em infraestruturas gigantescas.
Palavras-chave: inteligência artificial, Adaption Labs, Sara Hooker, modelos de linguagem, escalabilidade, aprendizado por reforço, startups, Cohere, Google Brain, financiamento
Com informações de TechCrunch





