Xbow alcanza valoración de unicornio con ronda centrada en ciberseguridad e IA
Oege de Moor, CEO de Xbow y exlíder de Copilot en GitHub | Créditos: Xbow

Xbow alcanza valoración de unicornio con ronda centrada en ciberseguridad e IA

Bloomberg informó que Xbow, empresa dedicada a detectar vulnerabilidades en aplicaciones mediante inteligencia artificial, levantó US$120 millones y superó una valorización de US$1.000 millones. La operación confirma el interés financiero por compañías que buscan aplicar IA a tareas ofensivas y defensivas de seguridad.

AI Security Startup Xbow Valued at More Than $1 Billion
Xbow, a startup that builds AI software to probe applications for security vulnerabilities, has raised a new round of funding that values it at more than $1 billion, a sign of investor enthusiasm for using artificial intelligence in cybersecurity.

La empresa apunta a fallas en software y al avance de ataques automatizados

Xbow fue fundada en 2024 y entrena sus modelos con trabajo de hackers humanos. Su foco está en automatizar funciones asociadas a pruebas de penetración y equipos red team, con énfasis en encontrar debilidades antes de que sean explotadas en entornos corporativos.

La compañía ya suma más de 100 clientes, entre ellos Moderna y Samsung Data Systems. Según su director ejecutivo, también observa una demanda relevante en Corea del Sur, donde las organizaciones enfrentan amenazas ligadas a grupos patrocinados por Estados.

IA en la sombra: Riesgos y gobernanza, por Rodrigo Acevedo, gerente general Entersoft
De acuerdo a un reciente informe del World Economic Forum, las vulnerabilidades vinculadas a la IA crecen más rápido que el fraude y el ransomware. IA aplicada: Productividad y operación donde realmente se captura valor, por Héctor Bravo, Director de Tecnología Disruptivas & IA de SONDALlevar la IA desde el discurso

Oege de Moor, CEO de Xbow y exlíder de Copilot en GitHub, atribuyó parte del problema al origen del material usado para entrenar sistemas de generación de código. A su juicio, muchos modelos reproducen prácticas inseguras porque aprenden desde repositorios públicos que no fueron desarrollados con criterios sólidos de protección.

“Las aplicaciones construidas en gran parte con IA suelen producir patrones de codificación inseguros. La razón es que han sido entrenadas con código fuente disponible públicamente y, por desgracia, mucho de ese código fuente disponible públicamente no estaba bien protegido”. afirmó a Bloomberg.

De Moor añadió que la mejora de los modelos no eliminará por completo este riesgo. En su análisis, seguirán existiendo fallas ligadas a lógica de negocio, controles de acceso y uso indebido de datos, mientras los atacantes también utilizan IA para ampliar escala y severidad.

“El mundo en general aún no ha comprendido por completo lo que viene. Habrá enjambres de ataques maliciosos. Será mejor que nos preparemos para eso”. Comentó a Bloomberg.
Huawei lanzó nuevas opciones de SuperPoD, diseñadas para la era de la Inteligencia Artificial
La compañía presentó su nueva generación de soluciones de cómputo, diseñadas para enfrentar la creciente demanda de procesamiento de datos impulsada por la IA.