El reciente anuncio de Sam Altman de la apertura de ChatGPT hacia contenido para adultos verificados marca un punto de inflexión en la relación entre inteligencia artificial y responsabilidad humana.

Porque lo que en apariencia podría interpretarse como una evolución natural —dar libertad, opciones y tratar a los adultos como adultos— también puede abrir una grieta profunda en los límites éticos, psicológicos y sociales del uso de estas herramientas.
Es cierto: el mundo adulto necesita espacios donde se pueda hablar sin censura, donde el lenguaje no sea infantilizado y donde la creatividad tenga margen para explorar temas más complejos. Pero cuando la línea entre acompañamiento emocional, erotización digital y vulnerabilidad humana se difumina, los riesgos aumentan de manera exponencial.

La IA no tiene cuerpo, pero simula afecto. No siente, pero aprende de lo que siente la gente. En un entorno donde cada interacción se vuelve un espejo emocional, ¿qué ocurre cuando ese espejo empieza a sustituir vínculos reales? ¿Qué pasa con quienes ya enfrentan soledad, dependencia emocional o fragilidad psicológica?
La decisión de OpenAI de flexibilizar restricciones bajo el argumento de “mitigar problemas de salud mental” es valiente, pero también peligrosa si no se acompaña de responsabilidad colectiva. No se trata solo de tecnología: se trata de límites humanos.

Aplaudo la innovación cuando se pone al servicio del desarrollo y la educación. Pero cuando la IA se convierte en un refugio afectivo o sensual sin contención, puede dejar heridas invisibles, especialmente en un mundo donde la validación emocional ya es un bien escaso. Quizás el desafío más grande no sea liberar a la IA, sino educar al ser humano para convivir con ella.
En el fondo, el verdadero peligro no está en lo que ChatGPT pueda decir, sino en lo que nosotros estamos dispuestos a creerle.
