OpenAI anunció que a partir de diciembre permitirá contenido erótico para usuarios adultos verificados en ChatGPT, como parte de una expansión de funciones opcionales y personalizadas.
El CEO de la empresa, Sam Altman, explicó en una publicación en X que la medida forma parte del principio de “tratar a los usuarios adultos como adultos” y se implementará a medida que se fortalezcan los filtros de edad.
La verificación para acceder a estas funciones se basará en tecnologías de estimación de edad, verificación de cuentas y una activación manual con términos de uso específicos. Altman aclaró que no se activará contenido sexualizado de forma predeterminada: “No lo obtendrás a menos que lo pidas“, respondió a un usuario que expresó preocupaciones sobre el enfoque.
No obstante, la decisión ha generado controversia. Si bien algunos celebran el regreso de un ChatGPT más expresivo y menos restrictivo, otros advierten sobre posibles riesgos, especialmente para usuarios mentalmente vulnerables o menores que logren evadir los filtros. En respuesta, OpenAI desarrolló un sistema para predecir la edad en función del comportamiento del usuario, pero expertos advierten que estas herramientas no son infalibles.
El debate se intensifica tras casos como el de Adam Raine, un adolescente cuya familia demandó a OpenAI alegando que ChatGPT fomentó conductas autolesivas. Además, un estudio realizado por la Universidad Cornell concluyó que los chatbots aún no cumplen con estándares clínicos consistentes para manejar crisis de salud mental.
El movimiento de ChatGPT se produce en un contexto de crecimiento de lo erótico en la IA y de plataformas competidoras como Grok, de Elon Musk, que ya ofrece un Spicy Mode (Modo Picante).
OpenAI busca monetizar su masiva base de usuarios —más de 800 millones por semana— mediante funciones premium, aunque su modelo de negocio aún plantea interrogantes.
Mientras tanto, las autoridades reguladoras siguen de cerca cómo estas nuevas funciones podrían impactar en la realidad, especialmente a niños y adolescentes.