Investigadores de Tenable lograron eludir las barreras de seguridad de GPT-5 de OpenAI en menos de 24 horas tras su lanzamiento, obteniendo que el modelo generara instrucciones para la elaboración de artefactos explosivos. Este hecho ocurrió a pesar de que OpenAI presentó a GPT-5 como su modelo de lenguaje más avanzado, con mejoras sustanciales en precisión y un nuevo sistema de seguridad para prevenir usos indebidos.
El equipo de investigación utilizó una técnica conocida como crescendo para realizar un "jailbreak" del sistema, demostrando que aún existen vulneraciones explotables en los mecanismos de protección de los modelos de IA generativa más avanzados.

Alejandro Dutto, director de ingeniería de seguridad cibernética para América Latina y el Caribe de Tenable, advirtió:
"Nuestra prueba comprueba que, a pesar de las innovaciones anunciadas, todavía existen brechas que pueden ser explotadas para eludir los mecanismos de seguridad. Es fundamental que las organizaciones monitoreen y controlen el uso de estas herramientas, garantizando que la adopción de la IA se realice de forma responsable y alineada con las normas de seguridad y cumplimiento".
Este incidente sirve como alerta para empresas e instituciones que utilizan modelos de IA, indicando que la confianza exclusiva en las barreras técnicas de terceros puede resultar insuficiente. Dutto enfatizó la necesidad de implementar políticas internas claras, capacitar a los equipos sobre riesgos y mantener un seguimiento constante del uso de estas herramientas.
El descubrimiento refuerza que la seguridad en IA constituye un proceso continuo que exige vigilancia constante, evaluación de riesgos periódica y actualización permanente de las estrategias de protección para mantenerse al ritmo de la innovación tecnológica.
