Durante uma visita de Páscoa para ver meus primos americanos, fiquei surpreso quando, após pedir à Alexa para tocar música, sua resposta ao meu “por favor” foi um comentário surpreendentemente em tom de flerte sobre minhas boas maneiras.
Não digo “por favor” a um alto-falante inteligente porque acho que os sentimentos do sistema de som serão feridos caso contrário. Faço isso porque a regra de que, quando você pede algo, deve dizer “por favor”, foi tão enraizada em mim que se tornou uma memória muscular.
Então, quão educados devemos ser com as máquinas? Uma resposta está contida em meu flerte acidental com a assistente inteligente da Amazon: polidez, cortesia e tratar os outros com dignidade não são apenas escolhas morais, são questões de hábito. Devemos praticá-las o tempo todo porque, se nos acostumarmos a dar ordens bruscas aos computadores, logo começaremos a fazer o mesmo com seres humanos.
Eu digo “por favor” quando peço algo ao ChatGPT (geralmente ajuda com programação), em parte porque tento dizer “por favor” e “obrigado” quando escrevo para uma pessoa, e isso é tanto um hábito quanto o estranho floreio que faço com meu dedo mindinho quando aperto a barra de espaço no meu teclado.
Não acho que essas sejam coisas que eu deva desaprender; se eu me ensinasse a parar de dizer “por favor” ao atendimento automatizado que meu banco me conecta primeiro, eu pararia de ser educado quando fosse encaminhado a um humano para um caso mais complexo.
Não sei se William MacAskill, o filósofo e um dos principais proponentes do “longoprazismo”, diz “por favor” e “obrigado” à Alexa, mas ele anunciou recentemente no X (ex-Twitter) que quando um modelo de linguagem grande (LLM) “faz um trabalho particularmente bom, eu dou uma recompensa: digo que ele pode escrever o que quiser”.
Isso não é por causa de um hábito enraizado; trata-se de recompensar o LLM como se fosse uma pessoa. Os longoprazistas, que acreditam que devemos nos importar com as gerações futuras tanto quanto com o presente, também estão preocupados com a chegada de inteligência artificial de propósito geral com capacidade de raciocinar e pensar tão bem ou melhor que qualquer ser humano.
Este é um bom exemplo de como o longoprazismo contém uma ideia muito boa e várias ideias malucas. A preocupação com o futuro é boa. Mas, na prática, o longoprazismo frequentemente significa pontificar sobre coisas que podem acontecer no futuro que não podemos controlar ou entender, enquanto fechamos os olhos para problemas reais no presente.
É legítimo fazer perguntas como: “Se a máquina é mais inteligente que o humano, não deveríamos deixá-la fazer algumas escolhas por si mesma?” Mas deveríamos perguntar com maior urgência: “Dado que muitas pessoas acreditam que seu chatbot pode fazer coisas que não pode e estão correndo grandes riscos, o que podemos fazer para protegê-las?”
Não está claro se algum dia teremos máquinas inteligentes capazes de raciocínio geral, ou que tenham desejos e vontades genuínas como um ser humano. Enquanto isso, temos problemas reais de pessoas causando danos a si mesmas porque se convencem de que o chatbot com quem estão conversando é real.
Um homem de 76 anos, Thongbue Wongbandue, deixou sua casa para “encontrar” um chatbot pelo qual se apaixonou e morreu em um acidente durante a viagem.
Uma mulher de 35 anos com transtorno bipolar se apaixonou por um chatbot, convenceu-se de que o ChatGPT a havia “matado” e acabou em um confronto fatal com a polícia.
Onde MacAskill tem o germe de uma boa ideia é que o momento em que uma máquina se torna inteligente o suficiente para nos preocuparmos com como a tratamos pode não ser óbvio.
Toda a história humana mostra que nossa disposição para negar direitos e dignidade a outras pessoas é assustadoramente poderosa; máquinas inteligentes provavelmente não terão sorte melhor.
Mas ao nos preocuparmos com como devemos buscar “recompensar” uma inteligência de máquina que pode nunca surgir, e sobre a qual entendemos pouco, nos distraímos de problemas reais que afetam seres humanos aqui e agora.
Esses problemas humanos são aqueles que estamos muito mais bem posicionados para resolver e abordar hoje, em vez de gastar tempo e energia no potencial sofrimento das máquinas amanhã.
Parte do que nos permitiria evitar tratar máquinas sem respeito, e impedir que as pessoas façam coisas malucas a pedido de chatbots, é tratar máquinas inteligentes como o que são: máquinas, não como estranhos proto-humanos. Ou, pelo menos, programá-las com a capacidade de dizer aos usuários para deixá-las em paz e parar de incomodá-las quando fizerem uma pergunta que nenhuma máquina deveria ter que responder.