Ex-líder de pesquisa da Cohere lança startup que aposta em IA adaptativa, não em modelos gigantes

Date:

SAN FRANCISCO, 22 de outubro de 2025 – Enquanto grandes laboratórios de inteligência artificial constroem data centers bilionários na expectativa de que escalar poder computacional levará a sistemas superinteligentes, a cientista Sara Hooker segue na direção oposta. Ex-vice-presidente de pesquisa da Cohere e ex-Google Brain, ela apresentou discretamente neste mês a Adaption Labs, startup que pretende criar máquinas capazes de aprender continuamente a partir da própria experiência, de forma muito mais eficiente que os atuais modelos de linguagem de larga escala (LLMs).

Hooker cofundou a empresa com Sudip Roy, também veterano da Cohere e da Google. Em entrevista, a pesquisadora afirmou que o método empregado ainda é confidencial, mas adiantou que a estratégia rompe com a “fórmula entediante” de simplesmente aumentar o tamanho dos modelos.

Aprendizado em tempo real

Segundo Hooker, a indústria vive um ponto de inflexão: “Escalar deixou de produzir sistemas capazes de interagir com o mundo”. Para ela, a capacidade de adaptação — como evitar bater o pé na mesa após uma primeira topada — deve ser central nos novos sistemas. Técnicas de reforço (reinforcement learning) já tentam algo semelhante, mas, na visão da executiva, ainda não permitem que modelos em produção aprendam com erros em tempo real.

Grandes empresas oferecem serviços de ajuste fino, porém a custos elevados. A OpenAI, por exemplo, exigiria investimentos superiores a US$ 10 milhões de seus clientes para consultoria de fine-tuning, segundo fontes de mercado. “Temos poucos laboratórios definindo modelos caros de adaptar”, disse Hooker. “Isso não precisa mais ser verdade”.

Financiamento e metas ambiciosas

Investidores que analisaram o plano de negócios informam que a Adaption Labs fechou recentemente uma rodada seed entre US$ 20 milhões e US$ 40 milhões; a fundadora não confirma os valores, mas admite “ambição elevada” para o projeto.

Ceticismo sobre o hiper-escalonamento

A iniciativa reflete dúvidas crescentes sobre a eficácia de apenas aumentar LLMs. Estudo do MIT aponta retornos decrescentes nos maiores modelos do mundo, e figuras como o “pai” do aprendizado por reforço, Richard Sutton, questionam a falta de experiência real na formação dessas IAs. Até ex-OpenAI como Andrej Karpathy expressam reservas quanto à escalabilidade do RL.

Hooker já se destacou por treinar modelos compactos para empresas na Cohere e por recrutar pesquisadores de regiões sub-representadas, como a África. A Adaption Labs abrirá escritório em São Francisco, mas planeja contratações globais.

Se a aposta na aprendizagem adaptativa vingar, poderá redesenhar a distribuição de poder no setor, hoje concentrado em poucas corporações que investem bilhões em infraestruturas gigantescas.

Palavras-chave: inteligência artificial, Adaption Labs, Sara Hooker, modelos de linguagem, escalabilidade, aprendizado por reforço, startups, Cohere, Google Brain, financiamento

Com informações de TechCrunch

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

Share post:

Subscribe

spot_imgspot_img

Popular

More like this
Related

Exército israelense recupera corpo do último refém em Gaza, Ran Gvili

Jerusalém – As Forças de Defesa de Israel (IDF)...

Lula deve encerrar terceiro mandato com maior déficit nominal desde o Plano Real

O Brasil caminha para registrar o maior déficit nominal...

Waymo recebe aval do DMV para ampliar operação na Califórnia

A Waymo obteve autorização do Departamento de Veículos Motorizados...

Pressão sobre Bolsonaro cresce após revés no STF e visita de aliados à Papuda

Brasília, 18 de novembro de 2025 – O ambiente...