La irrupción de la inteligencia artificial (IA) en sectores clave como la salud, finanzas, educación y servicios públicos, ha traído consigo enormes áreas de oportunidad y grandes cambios en la elaboración y sistematización de procesos y tareas, pero también ha traído consigo grandes desafíos, ya que, sin duda, esta avanza a una mayor velocidad que la capacidad normativa del Estado para regular sus impactos.
En ese contexto, si bien no existe una regulación específica para la protección de datos personales derivado del uso de la inteligencia artificial, o bien de responsabilidades por el uso de sistemas de inteligencia artificial, existen algunos avances en la materia.
Es el caso, por ejemplo, de la nueva Ley Federal de Protección de Datos Personales en Posesión de los Particulares que establece únicamente principios generales aplicables, pero que no fueron diseñados para los modelos dinámicos y autoejecutables de la IA. Por ejemplo, el derecho de oposición o rectificación difícilmente puede ejercerse si el usuario no sabe qué decisiones tomó el algoritmo ni qué datos utilizó para hacerlo.
No obstante, las organizaciones deben asegurarse de que sus sistemas de IA respeten principios clave como:
- Consentimiento informado
- Finalidad específica del uso de datos
- Seguridad de la información
- Derecho de acceso, rectificación, cancelación y oposición por parte del titular
Luego entonces, más allá del cumplimiento formal, esto debe formar parte de una estrategia de rendición de cuentas proactiva, donde el tratamiento de datos se incorpora desde las etapas iniciales del desarrollo tecnológico, hasta el uso que realice el usuario final.
¿Y si la IA se equivoca? ¿Quién responde?
Como ha quedado señalado, al no existir una regulación específica para el uso de la inteligencia artificial, cuando existan daños o errores atribuibles a la IA, se aplican las vías tradicionales del derecho civil; sin embargo, la indefinición legal sobre quién debe responder cuando un algoritmo produce contenido difamatorio o discriminatorio—sea el desarrollador del software, el usuario que introduce los datos o el propio sistema— genera una laguna jurídica que dificulta la atribución de responsabilidades como el acceso efectivo a la justicia.
Ante este panorama, en el cual las organizaciones que usen inteligencia artificial podrían ser legalmente responsable, incluso si el error proviene del algoritmo. Por lo tanto, es importante adoptar diferentes medidas entre las que destacan:
- Supervisión humana significativa.
- Transparencia en los procesos de decisión.
- Evaluaciones de impacto de riesgos.
- Sistemas de auditoría de IA.
- Revisar los contratos y las cláusulas de responsabilidad con proveedores de IA.
- 2. Implementar políticas internas de protección de datos y ética en el uso de IA.
- 4. Auditar regularmente los sistemas que toman decisiones automatizadas.
Usar inteligencia artificial puede ser una ventaja competitiva, pero también representa riesgos legales si no se implementa correctamente. Asegúrate de que tu empresa esté preparada