En un contexto de creciente regulación digital y expansión del uso de inteligencia artificial en el ecosistema emprendedor chileno, el Área de Derecho y Tecnologías de Molina Matta & Asociados, a cargo de la abogada experta, Cynthia Gajardo Valdés pone a disposición de startups, incubadoras, inversionistas y empresas tecnológicas un decálogo práctico con los principales riesgos legales que deben considerar al operar en entornos digitales y automatizados.

La unidad, especializada en protección de datos personales, ciberseguridad, cumplimiento normativo e inteligencia artificial aplicada, opera bajo un enfoque preventivo, estratégico y con pleno entendimiento de los procesos técnicos y culturales propios de las organizaciones tecnológicas.
- La IA no es magia, es responsabilidad legal: Toda herramienta basada en IA debe cumplir estándares de explicabilidad y trazabilidad. Los algoritmos no pueden ser cajas negras: si no puedes explicar cómo funciona, estás en zona de riesgo legal.
- La transparencia ya no es opcional: Cuando entre en vigencia la modificación a Ley de Protección de Datos en Chile (diciembre 2026), toda startup que recopile y procese datos personales deberá informar de forma clara cómo utiliza la información.

- Lo que no se explica, se sanciona: El Reglamento General de Protección de Datos (GDPR) en Europa y la próxima legislación chilena permiten sancionar a empresas que no expliquen la lógica de sus decisiones automatizadas. Las multas pueden superar las 20.000 UTM o el 4% de ingresos globales.
- La discriminación algorítmica también es ilegal: Si tu IA excluye por edad, género o etnias, esos sesgos en los datos de entrenamiento, podrían genersar demandas o recursos por discriminación. En la Unión Europea y Estados Unidos ya existen precedentes judiciales.

- Ciberseguridad no es parcheo, es estrategia: Las startups son blancos fáciles para ataques y es recomendable demostrar planes de acción ante incidentes, protocolos de reporte y respaldo legal. La Ley Marco de Ciberseguridad, en caso de ser un servicio esencial o un operador de Importancia vital, exige estándares incluso para pymes de dicho género.
- Lo que ocultas puede costarte tu propiedad intelectual: Para cumplir con transparencia y regulación, deberás explicar cómo funciona tu algoritmo a clientes e inversores. Sin contratos de confidencialidad, puedes perder tu ventaja competitiva o sufrir filtraciones.

- No todo lo que automatizas es legal: Usar IA para analizar CVs, otorgar créditos o segmentar perfiles de riesgo sin control humano puede vulnerar derechos fundamentales. La ley exige revisión humana y posibilidad de impugnación para decisiones críticas.
- La privacidad no es un trámite: Gestionar datos personales exige licitud: debes contar con consentimiento válido, finalidad informada, límites temporales y garantías de seguridad. No cumplir esto te expone a multas severas, aplicadas por la nueva Agencia de Protección de Datos, quién también fiscalizará aleatoriamente su cumplimiento.

- El impacto laboral no es colateral: Automatizar sin plan de transición o reconversión puede generar crisis internas, pérdida de talento, eficiencia y resistencia cultural. La IA debe implementarse con inteligencia organizacional, no solo técnica.
- Reputación: el activo invisible más vulnerable: Un error de IA (alucinación, sesgo, lenguaje ofensivo, deepfake mal etiquetado) puede viralizarse y destruir tu credibilidad. En el entorno digital, la confianza se construye con prevención, no con excusas.
Innovación jurídica con foco estratégico
Cynthia Gajardo Valdés, directora del área de Derecho y Tecnologías de Molina Matta & Asociados, enfatiza que:
“La implementación de IA debe ir acompañada de estándares jurídicos, regulatorios y éticos si se quiere construir confianza y sostenibilidad”.
El estudio invita a todo el ecosistema emprendedor a anticiparse al nuevo escenario normativo, entendiendo que prevenir hoy es proteger el futuro.
