Um hacker utilizou tecnologia da Anthropic como parte de um vasto esquema de crimes virtuais que afetou pelo menos 17 organizações, disse a empresa, marcando um caso “sem precedentes” de criminosos usando uma ferramenta de inteligência artificial como arma em larga escala.
O hacker usou a ferramenta de programação da Anthropic em uma operação de roubo de dados e extorsão que atingiu vítimas no último mês em setores como governo, saúde, serviços de emergência e instituições religiosas, de acordo com o relatório de inteligência sobre ameaças da empresa, publicado nesta semana.
Os ataques com o Claude Code resultaram no comprometimento de dados de saúde, informações financeiras e outros registros sensíveis, com pedidos de resgate variando entre US$ 75 mil e US$ 500 mil em criptomoedas.
A campanha demonstrou uma “evolução preocupante do cibercrime assistido por IA”, em que um único usuário pode operar como se fosse uma equipe inteira de criminosos cibernéticos, segundo o relatório.
A empresa disse que o hacker usou a IA tanto como consultora quanto como operadora ativa para executar ataques que, de outra forma, seriam mais difíceis e demorados.
Fundada em 2021, a Anthropic é uma das startups mais valiosas do mundo e concorre com a OpenAI, a xAI de Elon Musk, além do Google e da Microsoft. A companhia se posiciona como uma desenvolvedora de IA confiável e voltada para a segurança.
A Anthropic também relatou usos maliciosos do Claude na Coreia do Norte e na China. Operadores norte-coreanos têm utilizado a ferramenta para manter empregos fraudulentos, remotos e bem pagos em empresas de tecnologia, com o objetivo de financiar o programa de armas do regime.
Esses atores parecem ser totalmente dependentes da IA para realizar tarefas técnicas básicas, como escrever código, segundo a empresa.
Um agente de ameaça chinês usou o Claude para comprometer grandes operadoras de telecomunicações no Vietnã, sistemas de gestão agrícola e bancos de dados governamentais em uma campanha que durou nove meses, de acordo com o relatório.
Embora a investigação da Anthropic foque especificamente no Claude, a empresa escreveu que os casos mostram como criminosos cibernéticos estão explorando capacidades avançadas de IA em todas as etapas de suas operações fraudulentas.
A Anthropic constatou que ataques gerados por IA conseguem se adaptar às medidas de defesa em tempo real, além de tomar decisões estratégicas e táticas sobre como explorar e monetizar alvos de forma mais eficaz.
Outras empresas de IA também já relataram usos maliciosos de suas tecnologias. A OpenAI disse, no ano passado, que um grupo ligado à China se passou por um de seus usuários para lançar ataques de phishing contra funcionários da startup. A companhia também afirmou ter derrubado redes de propaganda na Rússia, China, Irã e Israel que usavam sua tecnologia.