HomeHeroImage

Una trampa del derecho

"Recomendamos mantener la redacción de la norma aprobada por la Cámara, y no crear el vacío legal que existe en Europa".
Romina Garrido Iglesias

Romina Garrido Iglesias

Máster en Derecho de las Nuevas Tecnologías
Subdirectora del GobLab UAI. Máster en Derecho de las Nuevas Tecnologías
  • Máster en Derecho de las Nuevas Tecnologías de la Universidad de Chile.
  • Diplomada en Derecho Informático de la Universidad de Chile.
  • Abogada de la Universidad de Valparaíso.

Subdirectora del GobLab, UAI y Directora de Protección de Datos en Prieto Abogados. Participa frecuentemente de las discusiones legislativas y fue parte de la mesa de asesores legislativos del proyecto de ley de datos personales. Está Certificada en Liderazgo y Estrategia en Ciberseguridad...

La reforma a la ley de protección de datos está en su recta final. La Comisión de Constitución del Senado rechazó el 40% de las normas que habían sido aprobadas en la Cámara de Diputados, principalmente por el posible desajuste con la norma europea el GDPR, estándar que se busca seguir, para ser revisadas en una Comisión Mixta. 

Las normas de protección de datos son una de las bases de la regulación de los algoritmos y la IA, hoy presentes en nuestra vida decidiendo asuntos sumamente sensibles: acceso a la educación, a una cama en un hospital, donación de órganos, subsidios estatales. El sector privado desarrolla estas tecnologías y ofrece servicios basados en IA en diversos rubros como la salud, seguros y el crédito. Las leyes de datos personales entregan herramientas a las personas para comprender cuándo y cómo operan los algoritmos.  

El proyecto de ley despachado por la Cámara se hace cargo de corregir una criticada norma del GDPR, justamente en ese aspecto: la explicación de las decisiones algorítmicas. Destacados profesores de la ética de datos alegan que el derecho a la explicación, conocer los criterios o lógicas detrás de un algoritmo, no es tal dado que la norma europea sólo opera cuando la decisión es “únicamente automatizada”. Esto ha generado sendos debates acerca del significado de “únicamente” y cuando una intervención humana es significativa, un dolor de cabeza para los jueces y reguladores.  

En base a ello la Cámara de Diputados redactó la norma entregando a las personas el derecho a la explicación en todos los casos y no solo cuando la decisión sea “únicamente automatizada” para ampliar las vías de protección. Esto por varias razones: el impacto de estas tecnologías en nuestra vida, la creciente automatización de procesos completos y complejos, la pérdida de agencia de los operadores de los sistemas ante la automatización, y la facilidad con las que se soslaya la explicación de los algoritmos con intervenciones nominales, artificiales para eludir la norma. Las propuestas buscan reponer la expresión “únicamente” a mi juicio un error.  

En base a la experiencia podemos recomendar la importancia de mantener la redacción de la norma aprobada por la Cámara, y no crear el vacío legal que existe en Europa. El trabajo en el proyecto Algoritmos Éticos de la Universidad Adolfo Ibáñez, nuestros estudios en transparencia algorítmica y el seguimiento que hacemos de los algoritmos públicos, nos lleva al convencimiento de la importancia de la transparencia y la explicación de las decisiones automatizadas, en todos los casos y evitar fórmulas legales que permitan soslayar derechos. Este es un nuevo derecho esencial para las personas cuando se automatizan procesos de impacto en sus vidas. Del GDPR hay que tomar sus aciertos y corregir sus errores, para no crear lagunas, en una normativa que nos ha costado tanto y que es la base para los desafíos y oportunidades de una IA basada en algoritmos justos, inclusivos y que respeten la dignidad de las personas.   

  Publicado en La Segunda

Una trampa del derecho

"Recomendamos mantener la redacción de la norma aprobada por la Cámara, y no crear el vacío legal que existe en Europa".

La reforma a la ley de protección de datos está en su recta final. La Comisión de Constitución del Senado rechazó el 40% de las normas que habían sido aprobadas en la Cámara de Diputados, principalmente por el posible desajuste con la norma europea el GDPR, estándar que se busca seguir, para ser revisadas en una Comisión Mixta. 

Las normas de protección de datos son una de las bases de la regulación de los algoritmos y la IA, hoy presentes en nuestra vida decidiendo asuntos sumamente sensibles: acceso a la educación, a una cama en un hospital, donación de órganos, subsidios estatales. El sector privado desarrolla estas tecnologías y ofrece servicios basados en IA en diversos rubros como la salud, seguros y el crédito. Las leyes de datos personales entregan herramientas a las personas para comprender cuándo y cómo operan los algoritmos.  

El proyecto de ley despachado por la Cámara se hace cargo de corregir una criticada norma del GDPR, justamente en ese aspecto: la explicación de las decisiones algorítmicas. Destacados profesores de la ética de datos alegan que el derecho a la explicación, conocer los criterios o lógicas detrás de un algoritmo, no es tal dado que la norma europea sólo opera cuando la decisión es “únicamente automatizada”. Esto ha generado sendos debates acerca del significado de “únicamente” y cuando una intervención humana es significativa, un dolor de cabeza para los jueces y reguladores.  

En base a ello la Cámara de Diputados redactó la norma entregando a las personas el derecho a la explicación en todos los casos y no solo cuando la decisión sea “únicamente automatizada” para ampliar las vías de protección. Esto por varias razones: el impacto de estas tecnologías en nuestra vida, la creciente automatización de procesos completos y complejos, la pérdida de agencia de los operadores de los sistemas ante la automatización, y la facilidad con las que se soslaya la explicación de los algoritmos con intervenciones nominales, artificiales para eludir la norma. Las propuestas buscan reponer la expresión “únicamente” a mi juicio un error.  

En base a la experiencia podemos recomendar la importancia de mantener la redacción de la norma aprobada por la Cámara, y no crear el vacío legal que existe en Europa. El trabajo en el proyecto Algoritmos Éticos de la Universidad Adolfo Ibáñez, nuestros estudios en transparencia algorítmica y el seguimiento que hacemos de los algoritmos públicos, nos lleva al convencimiento de la importancia de la transparencia y la explicación de las decisiones automatizadas, en todos los casos y evitar fórmulas legales que permitan soslayar derechos. Este es un nuevo derecho esencial para las personas cuando se automatizan procesos de impacto en sus vidas. Del GDPR hay que tomar sus aciertos y corregir sus errores, para no crear lagunas, en una normativa que nos ha costado tanto y que es la base para los desafíos y oportunidades de una IA basada en algoritmos justos, inclusivos y que respeten la dignidad de las personas.   

  Publicado en La Segunda