Tenable identifica una vulnerabilidad crítica en la nueva tecnología de seguridad implementada en GPT-5 de OpenAI
Chip de Inteligencia Artificial | Fotografía Créditos: Tenable

Tenable identifica una vulnerabilidad crítica en la nueva tecnología de seguridad implementada en GPT-5 de OpenAI

Investigadores de Tenable lograron eludir las barreras de seguridad de GPT-5 de OpenAI en menos de 24 horas tras su lanzamiento, obteniendo que el modelo generara instrucciones para la elaboración de artefactos explosivos. Este hecho ocurrió a pesar de que OpenAI presentó a GPT-5 como su modelo de lenguaje más avanzado, con mejoras sustanciales en precisión y un nuevo sistema de seguridad para prevenir usos indebidos.

El equipo de investigación utilizó una técnica conocida como crescendo para realizar un "jailbreak" del sistema, demostrando que aún existen vulneraciones explotables en los mecanismos de protección de los modelos de IA generativa más avanzados.

Tenable expande su plataforma de gestión de exposición para la protección de la IA en entornos corporativos
Tenable AI Exposure ofrece a las organizaciones visibilidad y control sin precedentes sobre el uso de herramientas de IA generativa ampliamente adoptadas como ChatGPT Enterprise y Microsoft Copilot.

Alejandro Dutto, director de ingeniería de seguridad cibernética para América Latina y el Caribe de Tenable, advirtió:

"Nuestra prueba comprueba que, a pesar de las innovaciones anunciadas, todavía existen brechas que pueden ser explotadas para eludir los mecanismos de seguridad. Es fundamental que las organizaciones monitoreen y controlen el uso de estas herramientas, garantizando que la adopción de la IA se realice de forma responsable y alineada con las normas de seguridad y cumplimiento".

Este incidente sirve como alerta para empresas e instituciones que utilizan modelos de IA, indicando que la confianza exclusiva en las barreras técnicas de terceros puede resultar insuficiente. Dutto enfatizó la necesidad de implementar políticas internas claras, capacitar a los equipos sobre riesgos y mantener un seguimiento constante del uso de estas herramientas.

El descubrimiento refuerza que la seguridad en IA constituye un proceso continuo que exige vigilancia constante, evaluación de riesgos periódica y actualización permanente de las estrategias de protección para mantenerse al ritmo de la innovación tecnológica.

Tenable 2025: Radiografía a fondo de los riesgos en la nube y cómo mitigarlos
Tenable advierte que persisten riesgos en la nube por datos expuestos, configuraciones inseguras y brechas en la gestión de identidades.

Jonathan Munizaga

Santiago de Chile
Editor y Reviewer de tecnología con 14 años de experiencia. Fanático de la telefonía móvil y tecnología en general. Comunicados a [email protected]. Otras consultas: [email protected].