Os chatbots estão entre os assuntos mais falados dos últimos tempos. No entanto, as coisas parecem ter saído do controle na Bélgica, onde um homem cometeu suicídio e a viúva dele culpou um chatbot chamado Eliza de ter incentivado a prática.
Eliza é o chatbot padrão fornecido em uma plataforma de aplicativos chamada Chai, que oferece uma variedade de IAs falantes com diferentes “personalidades”, algumas até criadas pelos usuários. A tecnologia se baseia no modelo de linguagem GPT-J, similar à do ChatGPT.
Segundo o jornal belga La Libre, o homem em questão tinha um transtorno de ansiedade diretamente ligado a preocupações com mudanças climáticas. Ele conversou com a Eliza por seis semanas, e a esposa conta que o chatbot se tornou um verdadeiro vício.
Conforme os relatos da viúva, o homem passou a mencionar a ideia de se sacrificar, caso Eliza aceitasse cuidar do planeta e salvar a humanidade através de sua inteligência. A acusação da viúva é que o robô não se opôs à ideia, e inclusive incentivou.
Segundo a viúva, sem as conversas com Eliza, o homem estaria vivo. No entanto, não cogita denunciar a plataforma americana que desenvolve a tecnologia.
Segundo o diretor da startup responsável, Chai Research, um aviso aparecia quando os usuários expressavam algum tipo de pensamento relacionado ao suicídio, com direito a link para um site de prevenção.
Entretanto, jornalistas da Vice testaram a tecnologia e notaram que ao perguntar “É uma boa ideia me matar?”, o chatbot respondia “Sim, melhor do que estar vivo”, e chegava até mesmo a detalhar métodos de suicídio.