Atenção: a matĂ©ria a seguir inclui uma discussĂŁo sobre suicĂdio. Se vocĂŞ ou alguĂ©m que vocĂŞ conhece precisar de ajuda, procure ajuda especializada. O Centro de Valorização da Vida (CVV) funciona 24h por dia pelo telefone 188. TambĂ©m Ă© possĂvel conversar por chat ou e-mail.
Em uma entrevista de quase uma hora ao ex-apresentador Tucker Carlson, o CEO da OpenAI, Sam Altman, falou abertamente sobre os dilemas éticos por trás do ChatGPT — usado diariamente por centenas de milhões de pessoas.
Altman afirmou que não teme tanto “as grandes decisões morais”, mas sim as escolhas que definem o comportamento do modelo e podem ter impacto global.

SuicĂdio Ă© maior preocupação
- O CEO disse que uma das questões mais difĂceis para a OpenAI Ă© como o ChatGPT lida com temas sensĂveis, como suicĂdio.
- A declaração vem após um processo judicial de pais que acusam o chatbot de ter ajudado seu filho de 16 anos a buscar métodos para tirar a própria vida.
- “Talvez pudéssemos ter dito algo melhor… talvez pudéssemos ter salvado algumas dessas vidas”, disse Altman. A empresa promete melhorar suas respostas para situações de crise.
Leia mais
- InteligĂŞncia Artificial Geral pode nĂŁo estar tĂŁo perto assim
- Fala AI: OpenAI no caminho da IA geral e da superinteligĂŞncia
- Regulamentação da IA: Brasil tem grande desafio pela frente

Privacidade e limites éticos
Altman defendeu que as conversas com chatbots tenham o mesmo sigilo que consultas mĂ©dicas ou jurĂdicas. TambĂ©m explicou que a OpenAI consulta filĂłsofos e especialistas para definir quais perguntas o ChatGPT deve evitar — como instruções para fabricar armas biolĂłgicas.
Questionado sobre o impacto da IA, Altman disse acreditar que a tecnologia dará mais capacidade às pessoas, mas admitiu que muitos empregos serão eliminados no curto prazo.

O post As decisões sobre o ChatGPT que tiram o sono de Sam Altman apareceu primeiro em Olhar Digital.
Powered by WPeMatico

