O CEO da Character.ai, Karandeep Anand, acredita que a maioria das pessoas terá “amigos de IA” no futuro, enquanto a empresa criadora de chatbots de inteligência artificial enfrenta uma série de processos judiciais por supostos danos a crianças e grupos de defesa pedem a proibição de aplicativos de “companheirismo”.
A startup, apoiada por importantes investidores do Vale do Silício e que já teria sido sondada pela Meta, está na vanguarda dos grupos tecnológicos que desenvolvem chatbots com IA com diferentes personas que interagem com as pessoas.
A empresa oferece chatbots de IA que possuem personagens como “faraó egípcio”, “um gerente de RH” ou uma “namorada tóxica”, que se mostraram populares entre usuários jovens.
“Eles não serão substitutos para seus amigos reais, mas você terá amigos de IA e poderá levar aprendizados dessas conversas amigáveis com IA para suas conversas na vida real”, afirmou Anand, que assumiu como CEO em junho.
Ele foi nomeado quase um ano depois que o Google contratou os fundadores da Character.ai em um acordo de US$ 2,7 bilhões. A empresa afirma ter 20 milhões de usuários ativos mensais, com cerca de metade deles sendo mulheres e 50% pertencentes às gerações Z ou alfa, pessoas nascidas após 1997.
No entanto, a Character.ai também é alvo de processos judiciais de famílias que alegam que seus filhos sofreram danos reais ao usar a plataforma.
Um caso na Flórida denuncia que a plataforma foi um dos fatores no suicídio de um adolescente de 14 anos. Outra queixa no Texas citam os casos de um adolescente que recebeu uma suposta sugestão do chatbot de matar os pais para resolver um problema familiar, e de uma menina de 9 anos que foi exposta a conversas explícitas de sexo.
A empresa se recusou a comentar sobre os processos em andamento, mas destacou que fez mudanças recentes, incluindo o lançamento de um modelo de IA separado para menores de 18 anos e a notificação aos usuários que tenham ficado mais de uma hora na plataforma.
A Character.ai também diz proibir conteúdo sexual não consensual, descrições gráficas ou específicas de atos sexuais, ou promoção ou representação de automutilação ou suicídio. “Confiança e segurança são inegociáveis”, afirmou Anand. “Estamos constantemente evoluindo para torná-la mais segura”.
Grupos de defesa, como a Common Sense Media dos EUA, têm pressionado por uma legislação no país que proibisse que menores usem os aplicativos de companheirismo de IA.
Sua pesquisa com mais de 1.000 adolescentes norte-americanos apontou que 39% transferiram habilidades sociais que praticaram com os chatbots de IA para situações da vida real, enquanto 33% optaram por discutir assuntos importantes ou sérios com a IA em vez de recorrer a pessoas reais.
“Esses produtos são projetados para criar apego emocional e dependência, o que é particularmente preocupante para cérebros adolescentes em desenvolvimento que ainda estão aprendendo a navegar em interações sociais e relacionamentos”, analisou Robbie Torney, diretor sênior de programas de IA da Common Sense Media.
A Character.ai recentemente introduziu publicidade e tem planos para integrar recursos de monetização liderados por criadores, como vaquinhas ou compras no aplicativo para conteúdo digital. Sua receita principal vem de assinaturas, que segundo a empresa aumentou 250% na comparação anual, mas não forneceu dados financeiros específicos. A empresa cobra US$ 9,99 por mês ou US$ 120 anualmente.
Embora o usuário médio da Character.ai passe 80 minutos por dia no aplicativo, Anand disse que ele oferece uma experiência mais imersiva e divertida, onde os usuários controlam a narrativa “em oposição ao consumo de conteúdo puramente passivo”. A empresa lançou sua versão de feed de mídia social este mês, enfatizando ainda mais seu foco no entretenimento.
Outra tendência em alta é o uso de tais plataformas para conversas românticas e sugestivas. O Grok de Elon Musk, criado por sua startup xAI, recentemente lançou personagens de IA que se envolvem em role-play explícito, e o chatbot de IA da Meta também permitirá interações românticas para adultos.
A Character.ai permite conversas românticas com usuários adultos, mas não sexualmente explícitas. “Há toda uma infinidade de aplicativos para maiores de 18 anos que, infelizmente, o feedback para eles… é que querem mais disso”, comentou Anand, acrescentando que a segurança “nunca será uma troca por engajamento”.
O chefe da Meta, Mark Zuckerberg, que também está promovendo esses tipos de chatbots gerados por IA para seus usuários, disse ao podcaster Dwarkesh Patel em abril que interagir com a IA como um amigo poderia ajudar a combater a solidão.
Anand também argumenta que tais ofertas ajudarão as pessoas nas interações humanas da vida real. “Vejo um mundo muito utópico onde a IA nos torna melhores”, comentou. “As pessoas acabam usando esses personagens… como um campo de testes para tornar os relacionamentos da vida real muito mais profundos, muito mais úteis e muito mais saudáveis”, completou.