Cada vez más empresas en Chile están usando inteligencia artificial para acelerar sus pruebas de software. Pero, ¿están todas preparadas para cumplir con la nueva Ley 21.719 sobre protección de datos personales? Automatizar sin control puede salir caro.
En este blog analizo qué está en juego, los errores más comunes y cómo avanzar en QA con la IA sin infringir la ley.
Automatizar QA: una tendencia con nuevos desafíos
Cada vez más empresas están integrando inteligencia artificial en sus procesos de QA para acelerar los ciclos de desarrollo y liberar a los equipos de tareas repetitivas.
Pero automatizar también significa mover datos, muchos datos. Y si en esos procesos estás usando información personal (de clientes, usuarios o empleados), debes asegurarte de estar cumpliendo con la ley chilena.
La Ley 21.719: lo que necesitas saber si pruebas con datos personales
La Ley 21.719 fue publicada en diciembre de 2024 y entra en vigencia completa en diciembre de 2026. Esta norma reemplaza la antigua ley de 1999 y establece un nuevo estándar para el tratamiento de datos personales en Chile.
Entre sus principios clave están:
- Consentimiento informado y específico
- Finalidad clara y proporcionalidad en el uso de los datos
- Responsabilidad proactiva y trazabilidad del tratamiento
- Seguridad y confidencialidad técnica y organizacional
La ley también crea una Agencia de Protección de Datos Personales, que tendrá la facultad de fiscalizar, sancionar y orientar a las empresas.
¿Quieres asegurar que tu automatización cumpla con la Ley 21.719? Conversemos.
Tres errores comunes que podrían dejarte fuera de la ley
A medida que las empresas automatizan pruebas, hay ciertos errores que se repiten y que pueden tener consecuencias legales serias:
- Clonar datos reales sin anonimizar: muchas empresas copian bases de datos productivas para probar software, pero si esos datos no están anonimizados, se está infringiendo el principio de minimización, según Actualidad Jurídica.
- No limitar el acceso a entornos de prueba: los entornos QA suelen tener menos controles que producción. La ley exige limitar el acceso solo al personal autorizado.
- Automatizar decisiones sin documentación: si una prueba automatizada toma decisiones que afectan a personas y no hay trazabilidad ni documentación, eso es una falta grave.
Un ejemplo de ello es algo que sucedió en Chile: en enero de 2025, la Corte Suprema falló contra Worldcoin por escanear el iris de una menor sin el consentimiento de sus padres. El tribunal ordenó eliminar los datos y reconoció una vulneración grave de derechos, de acuerdo con un reportaje de Ciper.
Aunque este caso no ocurrió en QA, sí muestra lo que puede pasar cuando se recogen o procesan datos sin una base legal clara, sin control técnico y sin trazabilidad.
El enfoque de ACL: IA con gobernanza y cumplimiento desde el diseño
En ACL abordamos el QA automatizado con una mirada integral. Combinamos tecnología avanzada con una fuerte gobernanza de datos, alineada con la Ley 21.719 y los estándares éticos internacionales:
- Diseño ético del pipeline: aplicamos “privacy by design” desde las primeras etapas del ciclo de desarrollo, no como un parche posterior.
- Validaciones automáticas de cumplimiento: integramos controles que permiten auditar y monitorear el uso de datos en cada etapa del QA, asegurando trazabilidad y cumplimiento.
- QA con propósito y responsabilidad: cada prueba automatizada debe tener un objetivo claro, justificación documentada y respeto por los derechos de las personas.
Así, no solo aceleramos tus pruebas con IA, también protegemos la confianza de tus usuarios y el cumplimiento normativo de tu negocio.
¿Estás testeando rápido o testeando bien?
Automatizar QA con IA es un gran paso para cualquier empresa. Mejora la eficiencia, detecta errores más rápido y libera al equipo para tareas más estratégicas.
Pero hacerlo bien también significa cumplir con la ley. Con ACL evita multas millonarias y protege tu reputación. Conversemos sobre cómo automatizar QA cumpliendo la Ley 21.719.
Las multas por incumplir la Ley 21.719 no son menores. Las infracciones graves pueden llegar a 10.000 UTM, y las gravísimas —como el uso de datos personales sin base legal o sin medidas de seguridad— alcanzan hasta 20.000 UTM o el 4 % de los ingresos anuales.
Además, la Agencia de Protección de Datos podrá suspender operaciones por hasta 30 días en casos reiterados o de alto riesgo, como establece la propia ley.
🔍 ¿Quieres saber si tu proceso de QA está alineado con la Ley de Protección de Datos?
Agenda un diagnóstico gratuito con nuestros expertos en TI, privacidad y automatización.
🔒 Detecta brechas, asegura el cumplimiento y protege la confianza de tus usuarios.