La reciente integración de la inteligencia artificial Gemini de Google con aplicaciones de terceros, como WhatsApp, encendió las alertas en materia de privacidad. Según Kaspersky, permitir por defecto que una IA acceda a mensajes personales sin consentimiento explícito compromete seriamente la confianza de los usuarios.
Las aplicaciones de mensajería son espacios donde se almacenan conversaciones íntimas, datos personales y hasta información confidencial, lo que las convierte en objetivos sensibles desde la perspectiva de ciberseguridad. Google indica que la función busca hacer más fluidas las interacciones, pero el modelo de exclusión voluntaria podría dejar a muchos usuarios sin saber que sus chats están siendo procesados por una IA.
Marc Rivero, analista principal de ciberseguridad en el Equipo Global de Investigación y Análisis en Kaspersky, comentó:
“La IA debería fortalecer la seguridad y la privacidad, no comprometerlas. Conceder acceso por defecto a datos altamente personales sin salvaguardas sólidas establece un precedente peligroso. Las empresas siempre deben centrarse en empoderar a los usuarios con control total y claridad sobre cómo se usa su información, y garantizar que la implementación de la IA ponga la privacidad en primer lugar”.
Kaspersky advirtió que, en caso de vulneraciones o mal uso, esta funcionalidad podría abrir nuevas puertas al fraude, robo de identidad y otros delitos digitales, en un escenario donde los cibercriminales ya están utilizando IA para escalar ataques de ingeniería social.