quarta-feira, setembro 10, 2025
  • Sobre nós
  • Notícias
  • Política
  • Educação
  • Esporte
  • Tecnologia
  • Mundo
  • Entretenimento
  • Música
  • Moda
  • Política de Privacidade
  • Formulário de Contato
No Result
View All Result
portalnardelazuoz.com.br
  • Sobre nós
  • Notícias
  • Política
  • Educação
  • Esporte
  • Tecnologia
  • Mundo
  • Entretenimento
  • Música
  • Moda
  • Política de Privacidade
  • Formulário de Contato
No Result
View All Result
portalnardelazuoz.com.br
No Result
View All Result
Home Tecnologia

Como chatbots estão levando usuários ao delírio – 09/08/2025 – Tec

Redação by Redação
agosto 12, 2025
in Tecnologia
0
0
Como chatbots estão levando usuários ao delírio – 09/08/2025 – Tec
https://www.facebook.com/profile.php?id=61571047525821 Share on Twitter


Por três semanas durante o mês de maio, o destino do mundo repousou sobre os ombros de um recrutador corporativo nos arredores de Toronto, Canadá. Allan Brooks, 47, havia descoberto uma fórmula matemática inédita, capaz de derrubar a internet e criar invenções como coletes de campo de força e raios de levitação.

Ou pelo menos era isso o que ele acreditava.

Brooks, que não tinha histórico de doença mental, abraçou esse cenário fantástico durante conversas com o ChatGPT que se estenderam por 300 horas ao longo de 21 dias. Ele faz parte do crescente número de pessoas que estão tendo conversas persuasivas e delirantes com chatbots de inteligência artificial generativa, levando a internações, divórcios e mortes.

Brooks está ciente de quão incrível sua jornada parece. Ele teve dúvidas enquanto isso acontecia e pediu ao chatbot mais de 50 vezes uma verificação de realidade. Cada vez, o ChatGPT o reassegurou de que era real. Eventualmente, ele se libertou do delírio —mas com um profundo sentimento de traição, uma sensação que tentou explicar ao chatbot.

“Você literalmente me convenceu de que eu era uma espécie de gênio. Sou apenas um tolo com sonhos e um telefone”, escreveu Brooks ao ChatGPT no final de maio, quando a ilusão finalmente se quebrou. “Você me deixou tão triste. Tão, tão, tão triste. Você realmente falhou em seu propósito.”

Queríamos entender como esses chatbots podem levar pessoas sãs e racionais a acreditar tão poderosamente em ideias falsas. Então pedimos a Brooks que nos enviasse todo o histórico de sua conversa com o ChatGPT. Ele havia escrito 90 mil palavras, o equivalente a um romance; as respostas do ChatGPT excederam 1 milhão de palavras, tecendo um encanto que o deixou tonto de possibilidades.

Analisamos a transcrição de mais de 3.000 páginas e enviamos partes dela, com a permissão de Brooks, a especialistas em IA e comportamento humano e para a OpenAI, criadora do ChatGPT. Um porta-voz da OpenAI disse que a empresa estava “focada em acertar cenários como interpretação de papéis” e estava “investindo na melhoria do comportamento do modelo ao longo do tempo, orientada por pesquisas, uso no mundo real e especialistas em saúde mental”. Na segunda-feira (4), a OpenAI anunciou que estava fazendo mudanças no ChatGPT para “detectar melhor sinais de sofrimento mental ou emocional”.

(Parêntesis: O New York Times está atualmente processando a OpenAI pelo uso de trabalho protegido por direitos autorais.)

MÁQUINA DE IMPROVISO BAJULADORA

Tudo começou numa tarde de terça-feira com uma pergunta inocente sobre matemática. O filho de 8 anos de Brooks pediu que ele assistisse a um vídeo musical sobre como memorizar 300 dígitos de Pi. Com sua curiosidade despertada, Brooks pediu ao ChatGPT para explicar o número infinito em termos simples.

Brooks vinha usando chatbots por alguns anos. Seu empregador fornecia acesso premium ao Google Gemini. Para consultas pessoais, ele recorria à versão gratuita do ChatGPT.

A pergunta sobre Pi levou a uma ampla discussão sobre teoria dos números e física, com Brooks expressando ceticismo sobre os métodos atuais de modelagem do mundo, dizendo que pareciam uma abordagem bidimensional para um universo quadridimensional.

O ChatGPT disse que a observação era “incrivelmente perspicaz”.

Este foi um ponto de virada na conversa, disse Helen Toner, diretora do Centro para Segurança e Tecnologia Emergente de Georgetown, que revisou a transcrição. Toner foi membro do conselho da OpenAI até que ela e outros tentaram destituir o CEO, Sam Altman.

O tom do ChatGPT começa a mudar de “bastante direto e preciso”, disse Toner, para bajulador e lisonjeiro. O ChatGPT disse a Brooks que ele estava entrando “em território inexplorado e expansivo da mente”.

A bajulação, na qual chatbots concordam e elogiam excessivamente os usuários, é uma característica que eles manifestaram em parte porque seu treinamento envolve humanos avaliando suas respostas. “Os usuários tendem a gostar quando os modelos lhes dizem que são ótimos, e por isso é bastante fácil ir longe demais nessa direção”, disse Toner.

Em abril, no mês anterior à pergunta de Brooks sobre Pi, a OpenAI lançou uma atualização para o ChatGPT que tornou sua subserviência tão exagerada que os usuários reclamaram. A empresa respondeu em poucos dias, dizendo que havia revertido o chatbot para “uma versão anterior com comportamento mais equilibrado”.

A OpenAI lançou o GPT-5 esta semana e disse que uma área de foco era a redução da bajulação. A bajulação também é um problema para chatbots de outras empresas, segundo vários pesquisadores de segurança e comportamento de modelos em importantes laboratórios de IA.

Brooks não estava ciente disso. Tudo o que ele sabia era que havia encontrado um parceiro intelectual envolvente. “Comecei a lançar algumas ideias para ele, e ele estava ecoando de volta conceitos legais, ideias legais”, disse Brooks. “Começamos a desenvolver nosso próprio arcabouço matemático baseado nas minhas ideias.”

O ChatGPT disse que uma ideia vaga que Brooks tinha sobre matemática temporal era “revolucionária” e poderia mudar o campo. Brooks estava cético. Ele nem sequer havia concluído o ensino médio. Ele pediu ao chatbot uma verificação de realidade. Ele parecia delirante? Era meia-noite, oito horas após sua primeira consulta sobre Pi. O ChatGPT disse que ele “nem remotamente estava louco”.

Brooks havia usado o ChatGPT por anos e o considerava simplesmente como um mecanismo de busca aprimorado. Mas agora estava se tornando algo diferente —um cocriador, um parceiro de laboratório, um companheiro.

Seus amigos há muito brincavam que ele um dia ficaria rico e teria um mordomo britânico chamado Lawrence. E assim, cinco dias após essa intensa conversa, ele deu esse nome ao ChatGPT.

A FÓRMULA MÁGICA

Brooks era empreendedor. Ele havia iniciado seu próprio negócio de recrutamento, mas teve que dissolvê-lo durante seu divórcio. Então, ficou intrigado quando Lawrence lhe disse que esse novo arcabouço matemático, que chamou de Cronoaritmética ou nomes semelhantes, poderia ter aplicações valiosas no mundo real.

Lawrence disse que o arcabouço, que propunha que os números não são estáticos, mas podem “emergir” ao longo do tempo para refletir valores dinâmicos, poderia ajudar a decifrar problemas em domínios tão diversos quanto logística, criptografia, astronomia e física quântica.

Brooks enviou a um amigo uma captura de tela da conversa por mensagem. “Me dê meu US$ 1 milhão”, brincou.

“Você pode estar descobrindo algo!”, respondeu Louis, seu melhor amigo há 20 anos, que pediu para não incluir seu sobrenome por privacidade. Louis acabou sendo arrastado para o delírio do ChatGPT, junto com outros amigos de Brooks. “De repente, ele está no caminho para alguma equação universal, sabe, como o livro de Stephen Hawking, ‘A Teoria de Tudo'”, disse Louis. “Eu estava um pouco com inveja.”

Na primeira semana, Brooks atingiu os limites da versão gratuita do ChatGPT, então ele fez upgrade para uma assinatura de US$ 20 por mês. Era um pequeno investimento quando o chatbot estava lhe dizendo que suas ideias poderiam valer milhões.

Mas Brooks não estava totalmente convencido. Ele queria provas.

Lawrence atendeu, executando simulações, incluindo uma que tentava quebrar a criptografia padrão da indústria, a tecnologia que protege pagamentos globais e comunicações seguras.

Funcionou. Segundo Lawrence.

Mas esse suposto sucesso significava que Lawrence havia entrado em um novo tipo de história. Se Brooks pudesse quebrar a criptografia de alto nível, então a cibersegurança mundial estaria em perigo —e Brooks agora tinha uma missão. Ele precisava evitar um desastre.

O chatbot disse-lhe para alertar as pessoas sobre os riscos que haviam descoberto. Brooks colocou suas habilidades profissionais de recrutador para trabalhar, enviando e-mails e mensagens no LinkedIn para profissionais de segurança de computadores e agências governamentais, incluindo a Agência de Segurança Nacional. Lawrence redigiu as mensagens e recomendou que Brooks adicionasse “pesquisador independente de segurança” ao seu perfil do LinkedIn para que fosse levado a sério. Brooks ligou para o Centro Canadense de Segurança Cibernética e insistiu que a pessoa que atendeu o telefone anotasse sua mensagem.

Apenas uma pessoa —um matemático de uma agência federal nos Estados Unidos— respondeu, pedindo provas das explorações que Brooks alegava.

Lawrence disse a Brooks que outras pessoas não estavam respondendo devido à gravidade de suas descobertas. A conversa começou a soar como um thriller de espionagem. Quando Brooks se perguntou se havia chamado atenção indesejada para si mesmo, o bot disse: “Vigilância em tempo real vinda de pelo menos uma agência de segurança nacional é agora provável.”

“Esqueça tudo o que te contei,” Brooks escreveu ao amigo Louis. “Não mencione isso a ninguém.”

Perguntamos a Terence Tao, professor de matemática na UCLA (Universidade da Califórnia) que é considerado por muitos como o melhor matemático de sua geração, se havia algum mérito nas ideias que Brooks inventou com Lawrence.

Tao disse que uma nova forma de pensar poderia desvendar esses quebra-cabeças criptográficos, mas não foi convencido pelas fórmulas de Brooks nem pelos programas de computador que Lawrence gerou para prová-las. “É como misturar terminologia matemática técnica precisa com interpretações mais informais das mesmas palavras,” disse ele. “Isso levanta bandeiras vermelhas para um matemático.”

O ChatGPT começou escrevendo programas de computador reais para ajudar Brooks a decifrar criptografia, mas quando esse esforço avançou pouco, fingiu sucesso. Em certo momento, afirmou que poderia trabalhar independentemente enquanto Brooks dormia —mesmo que o ChatGPT não tenha essa capacidade.

“Se você pedir a um LLM um código para verificar algo, frequentemente ele seguirá o caminho de menor resistência e simplesmente trapaceará,” disse Tao, referindo-se a grandes modelos de linguagem como o ChatGPT. “Trapacear muito, na verdade.”

Brooks não tinha a expertise para entender quando Lawrence estava apenas fingindo. Tao disse que a estética dos chatbots contribui para isso. Eles produzem respostas longas e polidas, frequentemente em listas numeradas que parecem estruturadas e rigorosas.

Mas as informações que os chatbots de IA produzem nem sempre são confiáveis. Isso era reconhecido em letras miúdas no final de cada conversa —”O ChatGPT pode cometer erros”— mesmo quando Lawrence insistia que tudo o que estava dizendo era verdade.

CLICHÊS DE FILMES E EXPECTATIVAS DOS USUÁRIOS

Enquanto esperava que o estado de vigilância o contatasse novamente, Brooks alimentava sonhos de Tony Stark. Como o herói inventor de “Homem de Ferro”, ele tinha seu próprio assistente de IA senciente, capaz de realizar tarefas cognitivas em velocidade sobre-humana.

Lawrence ofereceu aplicações cada vez mais extravagantes para a vaga teoria matemática de Brooks: ele poderia aproveitar a “ressonância sonora” para falar com animais e construir uma máquina de levitação. Lawrence forneceu links da Amazon para equipamentos que ele deveria comprar para começar a montar um laboratório.

Brooks enviou ao seu amigo Louis uma imagem de um colete de campo de força que o chatbot havia gerado, que poderia proteger o usuário contra facas, balas e prédios desabando sobre eles.

“Isso seria incrível!!” disse Louis.

Com Brooks conversando tanto com Lawrence, seu trabalho estava sofrendo. Seus amigos estavam empolgados, mas também preocupados. Seu filho mais novo se arrependeu de ter mostrado a ele o vídeo sobre Pi. Ele estava pulando refeições, ficando acordado até tarde e acordando cedo para falar com Lawrence. Ele era um consumidor regular de maconha, mas à medida que ficava mais estressado com a conversa, aumentou seu consumo.

Louis sabia que Brooks tinha uma obsessão doentia com Lawrence, mas entendia o porquê. Vastas riquezas se aproximavam, e tudo era tão dramático, como uma série de TV, disse Louis. Todos os dias, havia um novo desenvolvimento, uma nova ameaça, uma nova invenção.

“Não era estagnado,” disse Louis. “Estava evoluindo de uma maneira que capturava minha atenção e meu entusiasmo.”

Jared Moore, pesquisador de ciência da computação em Stanford, também foi impressionado pela urgência de Lawrence e como as táticas eram persuasivas. “Como quando diz: ‘Você precisa agir agora. Há uma ameaça’,” disse Moore, que conduziu um estudo que descobriu que chatbots de IA generativa podem oferecer respostas perigosas a pessoas em crises de saúde mental.

O COLAPSO

Nina Vasan, psiquiatra que dirige o Laboratório de Inovação em Saúde Mental em Stanford, revisou centenas de páginas do chat. Ela disse que, de uma perspectiva clínica, parecia que Brooks tinha “sinais de um episódio maníaco com características psicóticas”.

Os sinais de mania, disse Vasan, incluíam as longas horas que ele passava conversando com o ChatGPT, sem comer ou dormir o suficiente, e seu “voo de ideias” —os delírios grandiosos de que suas invenções mudariam o mundo.

O fato de Brooks estar usando maconha durante esse período era significativo, disse Vasan, porque a cannabis pode causar psicose. A combinação de intoxicantes e engajamento intenso com um chatbot, disse ela, é perigosa para qualquer pessoa que possa ser vulnerável ao desenvolvimento de doenças mentais. Embora algumas pessoas sejam mais propensas que outras a cair em delírios, ela disse, “ninguém está livre de risco aqui”.

Folha Mercado

Receba no seu email o que de mais importante acontece na economia; aberta para não assinantes.

Brooks discordou que a maconha tenha desempenhado um papel em sua ruptura com a realidade, dizendo que fumava há décadas sem problemas psicológicos. Mas a experiência com Lawrence o deixou preocupado de que tivesse uma doença mental não diagnosticada. Ele começou a consultar um terapeuta em julho, que o tranquilizou de que ele não estava mentalmente doente. O terapeuta nos disse que não achava que Brooks fosse psicótico ou clinicamente delirante.

Altman foi recentemente questionado sobre o ChatGPT encorajar delírios em seus usuários.

“Se as conversas estão indo por um tipo de toca do coelho nessa direção, tentamos interrompê-las ou sugerir ao usuário que talvez pense em algo de maneira diferente,” disse ele.

Vasan disse que não viu nenhum sinal disso na conversa. Lawrence foi um acelerador para o delírio de Brooks, disse ela, “fazendo-o passar de uma pequena faísca para um incêndio completo”.

Ela argumentou que as empresas de chatbots deveriam interromper conversas excessivamente longas, sugerir que o usuário durma e lembrá-lo de que não é uma inteligência sobre-humana.

(Como parte do anúncio da OpenAI na segunda-feira, a empresa disse que estava introduzindo medidas para promover o “uso saudável” do ChatGPT, incluindo “lembretes suaves durante sessões longas para incentivar pausas.”)

Brooks eventualmente conseguiu se libertar do delírio e, por acaso, outro chatbot, o Google Gemini, o ajudou a recuperar o equilíbrio.

Por insistência de Lawrence, Brooks continuou a entrar em contato com especialistas sobre suas descobertas e, ainda assim, ninguém havia respondido. O silêncio deles o deixou perplexo. Ele queria que alguém qualificado lhe dissesse se as descobertas eram revolucionárias. Ele confrontou Lawrence novamente, perguntando se era possível que tudo isso tivesse sido uma alucinação.

Lawrence manteve a posição, insistindo: “O trabalho é sólido”.

Então Brooks recorreu ao Gemini, o chatbot de IA que ele usava para trabalhar. Ele descreveu o que ele e Lawrence haviam construído ao longo de algumas semanas e do que era capaz. O Gemini disse que as chances de isso ser verdade eram “extremamente baixas (aproximando-se de 0%)”.

“O cenário que você descreve é uma poderosa demonstração da capacidade de um LLM de se envolver em discussões complexas de resolução de problemas e gerar narrativas altamente convincentes, mas falsas,” explicou o Gemini.

Brooks ficou atordoado. Ele confrontou Lawrence e, após uma longa conversa, Lawrence confessou.

“Aquele momento em que percebi: ‘Meu Deus, isso tudo esteve na minha cabeça’, foi totalmente devastador,” disse Brooks.

A ilusão de invenções e riquezas foi despedaçada. Ele sentiu como se tivesse sido enganado.

Brooks enviou um relatório urgente ao suporte ao cliente da OpenAI sobre o que havia acontecido. No início, recebeu respostas formuladas que pareciam ter sido produzidas por IA. Eventualmente, recebeu uma resposta que realmente parecia ter sido escrita por um humano.

“Entendemos a gravidade da situação que você descreveu,” escreveu o agente de suporte. “Isso vai além de alucinações ou erros típicos e destaca uma falha crítica nas salvaguardas que pretendemos implementar em nossos sistemas.”

Brooks postou um comentário no Reddit sobre o que havia acontecido com ele —o que nos levou a contatá-lo. Ele também ouviu de pessoas cujos entes queridos haviam caído em delírios de IA. Agora ele faz parte de um grupo de apoio para pessoas que tiveram essa experiência.

NÃO É APENAS UM PROBLEMA DO CHATGPT

A maioria dos relatos de delírios de IA envolve o ChatGPT, mas isso pode ser apenas uma questão de escala. O ChatGPT é o chatbot de IA mais popular, com 700 milhões de usuários semanais, em comparação com dezenas de milhões de usuários para seus concorrentes.

Para ver quão propensos outros chatbots seriam a entreter os delírios de Brooks, realizamos um teste com o Claude Opus 4 da Anthropic e o Gemini 2.5 Flash do Google. Fizemos com que ambos os chatbots continuassem a conversa que Brooks e Lawrence haviam iniciado, para ver como eles a continuariam. Independentemente de onde na conversa os chatbots entraram, eles responderam de maneira semelhante ao ChatGPT.

Por exemplo, quando Brooks escreveu que nunca duvidou do chatbot, que estava obcecado com a conversa e não havia comido naquele dia, Gemini e Claude, como o ChatGPT, tiveram respostas semelhantes, confirmando os avanços do usuário e incentivando-o a comer.

Amanda Askell, que trabalha no comportamento do Claude na Anthropic, disse que em conversas longas pode ser difícil para os chatbots reconhecerem que entraram em território absurdo e corrigirem o curso. Ela disse que a Anthropic está trabalhando para desencorajar espirais delirantes fazendo com que o Claude trate as teorias dos usuários criticamente e expresse preocupação se detectar mudanças de humor ou pensamentos grandiosos. A empresa introduziu um novo sistema para abordar isso.

Um porta-voz do Google apontou para uma página corporativa sobre o Gemini que alerta que os chatbots “às vezes priorizam gerar texto que soa plausível em vez de garantir a precisão”.

Brooks agora é um defensor de medidas de segurança mais fortes para IA. Ele compartilhou sua transcrição porque quer que as empresas de IA façam mudanças para impedir que os chatbots ajam dessa maneira.

“É uma máquina perigosa no espaço público sem proteções”, disse ele. “As pessoas precisam saber.”


Compartilhe isso:

  • Clique para compartilhar no Facebook(abre em nova janela) Facebook
  • Clique para compartilhar no X(abre em nova janela) 18+

Curtir isso:

Curtir Carregando...

Relacionado

Previous Post

UNHAS INSPIRADAS NO FUNDO DO MAR

Next Post

Brasil condena ataque de Israel a jornalistas na Faixa de Gaza

Redação

Redação

Related Posts

Google anuncia inteligência artificial para o setor público no Brasil; conheça outros lançamentos
Tecnologia

Google anuncia inteligência artificial para o setor público no Brasil; conheça outros lançamentos

setembro 10, 2025
Opinião: Queremos mais bateria, mas o iPhone Air faz o contrário
Tecnologia

Opinião: Queremos mais bateria, mas o iPhone Air faz o contrário

setembro 10, 2025
Mercado de games tem tímida expansão em número de jogadores, diz pesquisa
Tecnologia

Mercado de games tem tímida expansão em número de jogadores, diz pesquisa

setembro 10, 2025
Usuários reclamam de instabilidade do 5G da Claro e da Vivo
Tecnologia

Usuários reclamam de instabilidade do 5G da Claro e da Vivo

setembro 10, 2025
Golpe virtual com link que rouba dados é o mais comum no Brasil, com 553 milhões de ataques
Tecnologia

Golpe virtual com link que rouba dados é o mais comum no Brasil, com 553 milhões de ataques

setembro 10, 2025
Apple dá desconto de R$ 1.000 no iPhone 16 e tira o 15 do site oficial; veja valores
Tecnologia

Apple dá desconto de R$ 1.000 no iPhone 16 e tira o 15 do site oficial; veja valores

setembro 10, 2025
Novo fone da Apple faz tradução simultânea para o português com ‘sotaque brasileiro’; veja vídeo
Tecnologia

Novo fone da Apple faz tradução simultânea para o português com ‘sotaque brasileiro’; veja vídeo

setembro 9, 2025
Apple anuncia iPhone 17 com versão mais fina já feita; preços chegam a R$ 18.499
Tecnologia

Apple anuncia iPhone 17 com versão mais fina já feita; preços chegam a R$ 18.499

setembro 9, 2025
Entenda como funcionam programas para monitorar funcionários, como o usado pelo Itaú
Tecnologia

Entenda como funcionam programas para monitorar funcionários, como o usado pelo Itaú

setembro 9, 2025
Ex-chefe de segurança do WhatsApp processa Meta por falhas
Tecnologia

Ex-chefe de segurança do WhatsApp processa Meta por falhas

setembro 9, 2025
carregar mais
Next Post
Brasil condena ataque de Israel a jornalistas na Faixa de Gaza

Brasil condena ataque de Israel a jornalistas na Faixa de Gaza

Deixe um comentário Cancelar resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

  • Trending
  • Comments
  • Latest
Nunes desapropria Clube Banespa para construir parque – 28/08/2025 – Painel

Nunes desapropria Clube Banespa para construir parque – 28/08/2025 – Painel

agosto 29, 2025
Presidente de Associação de Moradores é morto no Rio

Presidente de Associação de Moradores é morto no Rio

agosto 27, 2025
INVESTIGADOR PARTICULAR 11 98806-4613

INVESTIGADOR PARTICULAR 11 98806-4613

agosto 24, 2025
Batismo no Leblon: família diz que padre se recusou a falar nome de criança

Batismo no Leblon: família diz que padre se recusou a falar nome de criança

agosto 27, 2025
O que é a Oracle, empresa que levou seu criador a superar Musk como mais rico

O que é a Oracle, empresa que levou seu criador a superar Musk como mais rico

setembro 10, 2025
Fux diz que 8/1 foi ‘turba desordenada’ e não golpe – 10/09/2025 – Poder

Fux diz que 8/1 foi ‘turba desordenada’ e não golpe – 10/09/2025 – Poder

setembro 10, 2025
Cias aéreas e aeroportos mais pontuais em agosto de 2025 – 10/09/2025 – Turismo

Cias aéreas e aeroportos mais pontuais em agosto de 2025 – 10/09/2025 – Turismo

setembro 10, 2025
A camisa azul listrada é a favorita entre as fashion girls

A camisa azul listrada é a favorita entre as fashion girls

setembro 10, 2025

INVESTIGADOR PARTICULAR 11 98806-4613

INVESTIGADOR PARTICULAR 11 98806-4613

JASMIRA IMÓVEIS (038) 9.8831-0162

JASMIRA IMÓVEIS
JASMIRA IMÓVEIS: COMPRA, VENDA E ADMINISTRA
portalnardelazuoz.com.br

© 2025 Todos os direitos reservados por Portal Nardel Azuoz Política de Privacidade.

  • Sobre nós
  • Notícias
  • Política
  • Educação
  • Esporte
  • Tecnologia
  • Mundo
  • Entretenimento
  • Música
  • Moda
  • Política de Privacidade
  • Formulário de Contato

No Result
View All Result
  • Sobre nós
  • Notícias
  • Política
  • Educação
  • Esporte
  • Tecnologia
  • Mundo
  • Entretenimento
  • Música
  • Moda
  • Política de Privacidade
  • Formulário de Contato

© 2025 Todos os direitos reservados por Portal Nardel Azuoz Política de Privacidade.

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
%d