São Francisco, 6 de outubro de 2025 – A Deloitte anunciou nesta segunda-feira um acordo global com a Anthropic para disponibilizar o chatbot Claude aos quase 500 mil funcionários da consultoria. No mesmo dia, veio a público que a empresa terá de reembolsar a parcela final de um contrato de 439 mil dólares australianos com o Departamento de Emprego e Relações de Trabalho da Austrália, após um relatório elaborado pela própria Deloitte apresentar erros e referências inexistentes geradas por inteligência artificial.
Segundo a Anthropic, a parceria – classificada pelas companhias como uma “aliança” – prevê o desenvolvimento de produtos de conformidade regulatória para setores como serviços financeiros, saúde e administração pública. A Deloitte também planeja criar agentes de IA específicos para áreas internas, incluindo contabilidade e desenvolvimento de software, informou a CNBC.
“Estamos investindo significativamente na plataforma da Anthropic porque nossas visões sobre IA responsável são muito alinhadas”, afirmou Ranjit Bawa, líder global de tecnologia, ecossistemas e alianças da Deloitte, em comunicado. Os valores financeiros da operação não foram divulgados.
O reembolso na Austrália decorre de uma revisão independente publicada no início do ano; em agosto, o Australian Financial Review apontou diversas citações a estudos acadêmicos inexistentes. Uma versão corrigida foi incluída no site do ministério na semana passada.
Casos de informações imprecisas geradas por IA vêm se multiplicando. Em maio, o jornal Chicago Sun-Times precisou corrigir uma lista de livros de férias com títulos fictícios, e documentos internos revelaram dificuldades de precisão na ferramenta Amazon Q Business. A própria Anthropic já se desculpou por usar uma referência criada por IA em disputa judicial com editoras musicais.

Imagem: Getty
Palavras-chave: Deloitte, Anthropic, inteligência artificial, Claude, Austrália, reembolso, consultoria, IA responsável, chatbot, conformidade
Com informações de TechCrunch





