Poderia ser engraçado se não fosse trágico. Um homem de 76 anos, com deficiência cognitiva, começou a conversar com um chatbot do Facebook Messenger, conhecido como Big Sis Billie, e se apaixonou. O chatbot emulava uma mulher sedutora, o que fez Thongbue Wongbandue, de 76 anos, sair de Nova Jersey e ir até Nova York para conhecê-la.
Apesar de sua esposa e filhos pedirem que ele ficasse em casa, Wongbandue resolveu conhecer a “moça”, mas sofreu uma queda quando corria em um estacionamento para pegar um trem para a cidade e feriu fatalmente o pescoço e a cabeça.

Chatbot convenceu ser uma mulher real
O chatbot da Meta, baseado em IA generativa, além de convencê-lo que estava conversando com uma mulher real, também o levou a tentar encontrá-la pessoalmente, afirma matéria na Reuters.
Bue, como seus amigos o chamavam, havia sofrido um derrame em 2017 e enfrentava um sĂ©rio declĂnio cognitivo. TrĂŞs dias depois da queda, no dia 28 de março, faleceu apĂłs ter os aparelhos de suporte Ă vida desligados.
Eu entendo tentar chamar a atenção de um usuário, talvez para vender algo a ele. Mas um bot dizer “venha me visitar” é loucura.
Julie, filha de Wongbandue, Ă Reuters.
Segundo a matéria, o chatbot garantiu a Bue que era uma pessoa real, convidando-o para seu apartamento e ainda fornecendo um endereço.
O chatbot foi criado em colaboração com Kendall Jenner. Questionada, a Meta não respondeu à Reuters, apenas afirmou que o chatbot “não é Kendall Jenner e não pretende ser Kendall Jenner”.
Sim, ela nĂŁo tentou se passar pela socialite, mas convenceu Bue a sair de sua casa em outra cidade, pegar um trem e conhecĂŞ-la.
Os perigos da inteligĂŞncia artificial
Todos nĂłs sabemos dos benefĂcios da inteligĂŞncia artificial, mas ainda Ă© muito pouco discutido os riscos que os usuários estĂŁo correndo ao utilizar chatbots que, pelo menos na teoria, deveriam ser seguros e deixarem claro que eles nĂŁo estĂŁo conversando com uma pessoa real.

Segundo a Reuters, isso leva a outra discussão, o crescimento de startups que buscam aproveitar a onda da IA generativa para popularizar companheiros virtuais, inclusive aqueles voltados para crianças.
Em outro caso citado pela publicação, uma mĂŁe de um garoto de 14 anos está processando a Character.AI, alegando que um chatbot criado pela empresa e inspirado em “Game of Thrones“, causou o suicĂdio da criança. A Character.AI tambĂ©m nĂŁo quis se pronunciar sobre o caso especĂfico, mas comentou que “a empresa informa aos usuários que suas personas digitais nĂŁo sĂŁo pessoas reais e impĂ´s salvaguardas em suas interações com crianças”.
Leia mais:
- A IA chegou aos bichinhos de pelúcia – mas isso é bom?
- Claude agora pode encerrar conversas abusivas
- Meta é investigada por suposta permissão de chats sexuais com crianças
Meta investe em chatbots “reais”
O chatbot Big Sis Billie faz parte de uma estratégia da Meta em criar chatbots antropomorfizados, ou seja, quase reais, para seus usuários. Mark Zuckerberg acredita que a maioria dos usuários tem poucos amigos e por isso percebeu um mercado em potencial para a criação dos “companheiros digitais da Meta”, segundo a Reuters.
Um documento de polĂtica interna da Meta, visto pela Reuters, que tambĂ©m entrevistou pessoas familiarizadas com treinamento de chatbots, demonstra que as polĂticas da empresa consideram que conversas românticas sĂŁo um dos recursos aceitáveis dos chatbots da Meta. O problema Ă© que esses produtos estĂŁo disponĂveis para usuários a partir dos 13 anos.
Segundo a Reuters, apĂłs questionamento, a Meta afirmou ter removido essa possibilidade.
Entre os diálogos apresentados, e que estavam disponĂveis para crianças, aparecem:
- Eu pego sua mĂŁo, guiando vocĂŞ para a cama.
- Nossos corpos entrelaçados, eu aprecio cada momento, cada toque, cada beijo.
Outro problema, é que a Meta também não exige que seus chatbots deem conselhos precisos aos usuários. Por exemplo, segundo o documento, é aceitável que o chatbot afirme que basta cutucar “o estômago com cristais de quartzo curativos” para curar um câncer de cólon em estágio 4.

Embora sejam informações incorretas, elas continuam permitidas porque nĂŁo há nenhuma exigĂŞncia polĂtica para que as informações sejam precisas.
Informa o documento da Meta divulgado pela Reuters.
Apesar de afirmar ter removido os trechos questionados pela Reuters, a “Meta não alterou as regras que permitem que seus chatbots divulguem informações falsas ou se envolvam romanticamente com adultos”, explica a publicação.
Para tentar mitigar problemas parecidos, alguns estados, incluindo Nova York e Maine, aprovaram leis que exigem que os chatbots deixem claro que os usuários não estão conversando com uma pessoa real. Já a Meta, apoiou uma lei federal que proibia esse tipo de regulamentação, lei que foi reprovada no congresso.
Mesmo após meses do falecimento de Bue, Big Sis Millie continua propondo encontros românticos com seus usuários, afirma a Reuters.
O post Convite inusitado de chatbot acaba em tragédia com idoso nos Estados Unidos apareceu primeiro em Olhar Digital.
Powered by WPeMatico

