El Compliance en la inteligencia artificial
Ante la pregunta sobre cómo mitigar los riesgos penales en el uso de la Inteligencia Artificial (IA), vale decir que Colombia aún no cuenta con un marco legal vigente que determine los límites del manejo de las herramientas de IA. Esta ausencia normativa representa el principal desafío para los programas de compliance, especialmente en lo que respecta a la identificación, gestión y mitigación de riesgos asociados al uso de tecnología con IA.
Al respecto, la Unesco publicó en 2022 la “Recomendación sobre la ética de la inteligencia artificial”, en la que insta a los Estados miembros a definir políticas públicas de prevención y ética que identifiquen los problemas y riesgos de la implementación y uso de la IA en los sectores público y privado, con el fin de evitar situaciones que afecten derechos humanos y libertades fundamentales.
Sin embargo, a la fecha Colombia no cuenta con una normatividad específica en dicha materia. Es así como, en julio de 2020 se radicó ante la Cámara de Representantes el proyecto de Ley Estatutaria 021/2020 que tenía como propósito establecer lineamientos de política pública para el desarrollo, uso e implementación de la IA en el País. Sin embargo, este fue retirado antes de que hubiera sido aprobado en primer debate, hecho que antecedió al archivo de otros siete intentos frustrados de regulaciones sobre el uso de IA.
De esta forma y pese a que actualmente se encuentra en estudio el proyecto de Ley 043/2025, no existen directrices jurídicas precisas para mitigar los riesgos éticos, legales y operacionales derivados del uso de estas tecnologías, lo cual dificulta la implementación de mecanismos de supervisión concretos.
A pesar de ello, es claro que, a través del inadecuado o descontrolado uso de la IA, las empresas pueden incurrir en conductas delictivas que van desde la violación de datos personales con las consecuentes falsedades personales y documentales e incluso fraudes procesales.
Finalmente, se destaca que la Unesco también invita de forma directa a las entidades públicas y privadas a crear instrumentos guía para la debida diligencia de los algoritmos en la prevención de delitos con el uso de la IA, que aseguren la ética y transparencia empresarial, y que incluyan mecanismos de control en cuanto a la trazabilidad de los algoritmos utilizados para la toma de decisiones, el tratamiento de datos personales, sensibles y/o confidenciales y la identificación de los actores y/o responsables en el uso de tecnologías de IA.
En conclusión, pese a la inexistencia de un marco normativo sólido, resulta necesario que el programa de cumplimiento de las empresas, incluya la implementación de buenas prácticas y mecanismos internos de control en el uso de la inteligencia artificial.
¿Necesita asesoría?