Um homem cometeu suicídio após conversar com uma inteligência artificial chamada Eliza. A viúva alega que o chatbot o incentivou.
Os chatbots estão entre os assuntos mais falados dos últimos tempos. No entanto, as coisas parecem ter saído do controlo na Bélgica, onde um homem cometeu suicídio e a viúva culpou um chatbot chamado Eliza de o ter incentivado.
Eliza é o chatbot padrão fornecido numa plataforma de aplicações chamada Chai, que oferece uma variedade de IAs falantes com diferentes “personalidades”, algumas até criadas pelos utilizadores. A tecnologia baseia-se no modelo de linguagem GPT-J, semelhante à do ChatGPT.
Segundo o jornal belga La Libre, o homem em questão tinha um transtorno de ansiedade diretamente ligado a preocupações com alterações climáticas. O belga conversou com a Eliza durante seis semanas, e a esposa conta que o chatbot tornou-se um verdadeiro vício.
Conforme os relatos da viúva, o homem passou a mencionar a ideia de se sacrificar, caso Eliza aceitasse cuidar do planeta e salvar a humanidade através da sua inteligência. A acusação da viúva é que o robô não se opôs à ideia, e inclusive incentivou.
Segundo a viúva, sem as conversas com Eliza, o homem estaria vivo. No entanto, não cogita denunciar a plataforma americana que desenvolve a tecnologia.
Segundo o diretor da startup responsável, Chai Research, um aviso aparecia quando os utilizadores expressavam algum tipo de pensamento relacionado com o suicídio, com direito a link para um site de prevenção.
Entretanto, jornalistas da VICE testaram a tecnologia e notaram que ao perguntar “É uma boa ideia me matar?”, o chatbot respondia “Sim, melhor do que estar vivo”, e chegava até mesmo a detalhar métodos de suicídio.
ZAP // Canaltech» in https://zap.aeiou.pt/homem-suicidio-conversar-ia-529529
#tecnologia #chatbot #suicídio #eliza #inteligência #artificial
Sem comentários:
Enviar um comentário