¿ChatGPT para adultos? Un paso adelante o un riesgo sin mapa, por Danilo Naranjo, presidente ejecutivo de Wingsoft
Por Danilo Naranjo, presidente ejecutivo Wingsoft. | Fotografía Créditos: Wingsoft

¿ChatGPT para adultos? Un paso adelante o un riesgo sin mapa, por Danilo Naranjo, presidente ejecutivo de Wingsoft

El reciente anuncio de Sam Altman de la apertura de ChatGPT hacia contenido para adultos verificados marca un punto de inflexión en la relación entre inteligencia artificial y responsabilidad humana.

El eslabón humano en la ciberseguridad, por Adriana Fonseca, directora de Industrial Automation para el Clúster Sur Andino de Schneider Electric
Más que solo el conocimiento de técnicos, una empresa se debe nutrir de una cultura de seguridad transversal: que cada persona sepa que tiene un rol y que entienda que sus decisiones diarias tiene impacto

Porque lo que en apariencia podría interpretarse como una evolución natural —dar libertad, opciones y tratar a los adultos como adultos— también puede abrir una grieta profunda en los límites éticos, psicológicos y sociales del uso de estas herramientas.

Es cierto: el mundo adulto necesita espacios donde se pueda hablar sin censura, donde el lenguaje no sea infantilizado y donde la creatividad tenga margen para explorar temas más complejos. Pero cuando la línea entre acompañamiento emocional, erotización digital y vulnerabilidad humana se difumina, los riesgos aumentan de manera exponencial.

A 5 años de cumplir con los ODS, ¿llegamos? por Belén Arce, líder de sostenibilidad en Accenture
El sector privado tiene una oportunidad única: liderar esta transición no solo desde la innovación, sino también desde la coherencia con los valores de sostenibilidad y equidad

La IA no tiene cuerpo, pero simula afecto. No siente, pero aprende de lo que siente la gente. En un entorno donde cada interacción se vuelve un espejo emocional, ¿qué ocurre cuando ese espejo empieza a sustituir vínculos reales? ¿Qué pasa con quienes ya enfrentan soledad, dependencia emocional o fragilidad psicológica?

La decisión de OpenAI de flexibilizar restricciones bajo el argumento de “mitigar problemas de salud mental” es valiente, pero también peligrosa si no se acompaña de responsabilidad colectiva. No se trata solo de tecnología: se trata de límites humanos.

Calidad de software: Un asunto estratégico, por Rodrigo Cabot, gerente de I+D en Ecosistemas Global
Hoy el desafío ya no es solo tecnológico, es reputacional, estratégico y humano. Las empresas que entiendan esto tendrán una ventaja sostenible en un entorno cada vez más dinámico

Aplaudo la innovación cuando se pone al servicio del desarrollo y la educación. Pero cuando la IA se convierte en un refugio afectivo o sensual sin contención, puede dejar heridas invisibles, especialmente en un mundo donde la validación emocional ya es un bien escaso. Quizás el desafío más grande no sea liberar a la IA, sino educar al ser humano para convivir con ella.

En el fondo, el verdadero peligro no está en lo que ChatGPT pueda decir, sino en lo que nosotros estamos dispuestos a creerle.

Los deepfakes se transforman en una de las principales herramientas de fraude
Los ciberdelincuentes ya utilizan IA para clonar voces, falsificar videollamadas y automatizar fraudes sin intervención humana, con herramientas disponibles en la dark web por solo unos cientos de dólares.

Columnas al director

El contenido vertido en esta columna de opinión es de exclusiva responsabilidad de su autor y no refleja necesariamente la posición de Tabulado y su equipo editorial