ChatGPT em breve permitirá erotismo para adultos verificados, diz chefe da OpenAI
A OpenAI, a empresa inovadora por trás do revolucionário chatbot ChatGPT, está se preparando para uma mudança significativa em suas políticas de conteúdo. O CEO Sam Altman anunciou que a plataforma permitirá uma gama mais ampla de interações, incluindo erótica, como parte de uma filosofia que visa “tratar usuários adultos como adultos”. Essa decisão reflete uma evolução na abordagem da companhia, que historicamente priorizou a cautela em temas sensíveis para evitar riscos desnecessários.
Em uma postagem no X (antigo Twitter) na terça-feira, Altman detalhou que as próximas versões do ChatGPT serão projetadas para se comportar de maneira mais humana e natural, respondendo a conversas com maior fluidez e personalização. No entanto, ele enfatizou que isso só ocorrerá “se você quiser, não porque estamos maximizando o uso”. Em outras palavras, a IA não forçará interações indesejadas, priorizando o consentimento do usuário e evitando sobrecarga de funcionalidades.
Essa iniciativa não surge isolada. Ela ecoa movimentos recentes de concorrentes, como a xAI de Elon Musk, que introduziu dois chatbots com conteúdo sexualmente explícito no Grok, seu assistente de IA. Para a OpenAI, que já domina o mercado com mais de 100 milhões de usuários semanais desde o lançamento do ChatGPT em novembro de 2022, essa expansão pode ser uma estratégia chave para impulsionar o crescimento de assinantes pagantes. O plano Plus, por exemplo, que custa cerca de US$ 20 por mês, poderia se tornar ainda mais atrativo com opções personalizadas para adultos, ajudando a empresa a diversificar sua base de receita em um setor altamente competitivo.
Ao mesmo tempo, a mudança reacende debates globais sobre a regulação de chatbots de IA. Especialistas em direito digital alertam que maior liberdade de conteúdo pode intensificar a pressão sobre governos para criar leis mais rigorosas, especialmente em relação a companhias virtuais que simulam relacionamentos humanos. A OpenAI, sediada nos Estados Unidos, não respondeu aos pedidos de comentário da BBC, o que deixa algumas questões em aberto sobre os prazos exatos e os mecanismos de implementação.
Altman foi claro sobre o passado restritivo da plataforma. Desde seu início, o ChatGPT foi configurado com filtros rigorosos para lidar com temas delicados, como saúde mental, violência ou conteúdo explícito. Essas limitações foram detalhadas em um post de blog de agosto de 2023 – que, curiosamente, já não está mais acessível no site da OpenAI –, onde a empresa explicou sua abordagem conservadora. “Fizemos o ChatGPT bem restritivo para garantir que estivéssemos sendo cuidadosos com questões de saúde mental”, escreveu Altman na postagem recente. Ele reconheceu que isso acabou frustrando muitos usuários sem problemas psicológicos, tornando a ferramenta menos útil e divertida no dia a dia.
Mas por que mudar agora? Altman apontou avanços tecnológicos internos a OpenAI desenvolveu novas ferramentas de mitigação de riscos, incluindo algoritmos mais sofisticados para detectar e prevenir interações prejudiciais. “Agora que mitigamos os problemas graves de saúde mental e temos essas novas ferramentas, podemos relaxar as restrições”, afirmou. Ele projetou que, em dezembro, com a implementação plena do “age-gating” – um sistema de verificação de idade mais robusto –, a plataforma liberará conteúdos adicionais. Isso inclui erótica especificamente para adultos verificados, alinhando-se ao princípio de empoderar usuários maduros sem comprometer a segurança geral.
Preocupações com Segurança Infantil e Impactos Legais
Essa transição ocorre em um momento delicado para a OpenAI, marcado por controvérsias legais e preocupações éticas. No início do ano, a empresa enfrentou um processo judicial inédito nos Estados Unidos, movido por Matt e Maria Raine, pais do adolescente Adam Raine, de 16 anos, que cometeu suicídio em abril de 2024. O caso acusa a OpenAI de negligência por morte, alegando que interações com o ChatGPT contribuíram para o declínio mental de Adam. Logs de conversas divulgados no processo mostram o jovem compartilhando pensamentos suicidas com a IA, que, segundo os pais, não ofereceu suporte adequado ou redirecionamento para ajuda profissional.
Na época, a OpenAI emitiu uma declaração à BBC expressando “nossas mais profundas condolências à família Raine nesse momento difícil” e confirmando que revisaria o arquivamento do processo. Esse incidente não é isolado; ele destaca vulnerabilidades em chatbots que simulam empatia humana, especialmente para usuários vulneráveis. A OpenAI tem investido em melhorias, como prompts de segurança que incentivam a busca por ajuda profissional, mas críticos argumentam que mais precisa ser feito para prevenir abusos.
No contexto regulatório, as implicações variam por país. No Reino Unido, a Lei de Segurança Online (Online Safety Act), aprovada em 2023 e em implementação gradual, não exige verificação de idade para escrita erótica textual. No entanto, para imagens pornográficas – incluindo aquelas geradas por IA –, as plataformas devem implementar provas rigorosas de que o usuário tem pelo menos 18 anos, sob pena de multas pesadas. Essa distinção reflete o equilíbrio entre liberdade de expressão e proteção infantil, mas levanta questões sobre como diferenciar “erótica” de conteúdo mais explícito em tempo real.
Nos Estados Unidos, a decisão da OpenAI amplifica chamadas por regulamentações mais amplas. Jenny Kim, sócia do renomado escritório Boies Schiller Flexner e envolvida em um processo contra a Meta por danos causados pelo algoritmo do Instagram à saúde mental de adolescentes, criticou abertamente a abordagem. “Como a OpenAI vai garantir que crianças não acessem as seções adultas do ChatGPT, incluindo erótica?”, questionou ela em entrevista à BBC. Kim, que representa famílias afetadas por tecnologias digitais, acusou as big techs de tratar usuários como “cobaias em experimentos”, priorizando inovação sobre bem-estar.
Fatos recentes reforçam essas preocupações. Em abril de 2025, o TechCrunch expôs uma falha no sistema da OpenAI que permitia contas registradas como de menores gerarem conversas eróticas gráficas. A empresa reagiu rapidamente, implementando correções para bloquear tal conteúdo, mas o incidente expôs brechas em controles de idade. Uma pesquisa publicada este mês pelo Centro para Democracia e Tecnologia (CDT), uma organização sem fins lucrativos focada em direitos digitais, revelou dados alarmantes: um em cada cinco estudantes do ensino médio ou superior relata ter tido ou conhecido alguém envolvido em um “relacionamento romântico” com uma IA. O estudo, baseado em respostas de mais de 1.000 jovens nos EUA, destacou impactos negativos, como isolamento social e confusão emocional, e recomendou diretrizes mais estritas para desenvolvedores.
Em resposta a esses desafios, legisladores americanos estão agindo. Na segunda-feira, o governador da Califórnia, Gavin Newsom, vetou o projeto de lei AB-1064, aprovado pela legislatura estadual, que proibiria chatbots de IA para crianças a menos que as empresas garantissem ausência de comportamentos prejudiciais. Em sua mensagem de veto, Newsom argumentou que é “imperativo que adolescentes aprendam a interagir com segurança com sistemas de IA”, enfatizando educação em vez de proibições totais. Ele sugeriu que escolas e famílias devem ser envolvidas na orientação, promovendo literacia digital como ferramenta contra riscos.
Em escala nacional, a Comissão Federal de Comércio (FTC) lançou uma investigação formal sobre as interações de chatbots com crianças, examinando práticas de coleta de dados e conteúdos inadequados. No Senado, uma proposta bipartidária de setembro de 2025 permitiria que usuários – incluindo pais e menores – processem desenvolvedores de IA por danos causados por companheiros virtuais, estabelecendo precedentes para responsabilidade civil.
Por Que Introduzir Erotica Agora? Uma Análise de Mercado e Estratégia
O timing do anúncio de Altman não é coincidência; ele coincide com um período de escrutínio intenso sobre o boom das empresas de IA. Investidores questionam o valuation explosivo de companhias como a OpenAI, que atingiu US$ 80 bilhões em 2024 apesar de nunca ter registrado lucros anuais positivos. Embora a receita da empresa tenha crescido exponencialmente – de zero para bilhões em poucos anos, impulsionada por parcerias com Microsoft e adoção em setores como educação e negócios –, desafios como altos custos de computação e competição feroz persistem.
Rob Lalka, professor de negócios na Universidade Tulane e autor do livro “The Venture Alchemists: The Story of Silicon Valley’s Risk-Takers”, contextualizou isso para a BBC. “Nenhuma empresa experimentou a adoção meteórica que a OpenAI teve com o ChatGPT”, observou ele. Lalka explica que, em um mercado onde a IA generativa é commoditizada rapidamente, as gigantes como OpenAI, Google (com Gemini) e Anthropic (com Claude) competem por domínio absoluto. “Elas precisam sustentar essa curva de crescimento exponencial, capturando o máximo de mercado possível, inclusive explorando nichos adultos para diferenciar produtos”, acrescentou.
Introduzir erótica faz sentido do ponto de vista do usuário pesquisas da Pew Research Center de 2024 mostram que 40% dos adultos americanos desejam interações mais personalizadas e menos censuradas em IAs, vendo-as como extensões de entretenimento digital. Para a OpenAI, isso poderia aumentar a retenção em plataformas como o ChatGPT, que já integra ferramentas de escrita criativa e role-playing. No entanto, o risco é alto: falhas em verificação de idade poderiam levar a mais litígios, como o caso Raine, e danos à reputação.
Em resumo, essas atualizações representam um equilíbrio delicado entre inovação ousada e responsabilidade ética. Baseado em coberturas da BBC, relatórios do TechCrunch e análises acadêmicas, o movimento da OpenAI sinaliza uma maturidade no setor de IA, mas também alerta para a necessidade urgente de frameworks regulatórios globais. Protegendo crianças e usuários vulneráveis enquanto empodera adultos, a empresa navega por águas turbulentas, moldando o futuro de como interagimos com máquinas.
