arrow-right host location public time type

Algoritmos y responsabilidad

31 de Agosto 2021 Columnas

Recientemente a la organización alemana AlgorithmWatch y al observatorio de avisaje de la New York University se les denegó el acceso a información vital para el estudio del funcionamiento de los algoritmos utilizados en redes sociales, sobre los cuales estaban investigando. AlgorithmWatch realizaba un análisis sobre el modo en que Instagram prioriza cierto tipo de contenido en el feed de cada usuario. Dicho estudio se detuvo abruptamente, cuando Facebook, actual dueña de Instagram, advirtió de posibles acciones legales debido a infracciones a los Términos de Servicio de la misma por los investigadores. En el caso de NYU’s Ad Observatory, la compañía utilizó el mismo argumento para bloquear el acceso de la universidad a la plataforma Facebook e inhabilitar las cuentas asociadas al estudio, que dicho centro realizaba sobre los anuncios políticos mostrados por la red social.

La negativa de Facebook a facilitar a los investigadores el acceso a los datos necesarios para analizar los algoritmos utilizados en estas plataformas, demuestra una falta de voluntad de la empresa y el vacío existente en materia de rendición de cuentas, lo que resulta en la falta de transparencia en la explotación de datos. Lo que vemos en nuestro feed no es inofensivo. Ya se ha hecho visible cómo el uso indebido de información privada de millones de personas puede tener consecuencias importantes, al punto de definir los destinos políticos de las naciones. Resulta por tanto imprescindible que aquellos que basan sus negocios en los datos de los usuarios, sean transparentes y responsables permitiendo el escrutinio del funcionamiento y el diseño de sus algoritmos y el tratamiento de datos.

Este escrutinio se puede realizar de diferentes maneras, incluso si es que los sistemas utilizan datos sensibles. Por ejemplo, desde 2018 está implementado en el sistema de atención primaria de Chile DART, un software de inteligencia artificial de desarrollo nacional para la detección temprana de la retinopatía diabética, principal causa de pérdida de visión y ceguera en personas en edad laboral. Este software tuvo un proceso de validación clínica previo a su despliegue nacional, lo cual es una de las herramientas de responsabilidad de algorítmicas disponibles. Esta validación permitió comprobar que el software tiene el desempeño necesario para poder ser utilizado como una herramienta eficaz en el monitoreo de la salud de los pacientes con diabetes, enfermedad cada vez más frecuente en Chile.

Además de este tipo de acciones es posible realizar auditorías de los sistemas o evaluaciones de impacto en protección de datos, donde no sólo el manejo de los datos es relevante sino también poder demostrar la responsabilidad correlativa de quienes diseñan y aplican los algoritmos. De esta manera, será posible validar que estos funcionan adecuadamente, sin amplificar los sesgos existentes y respetando la privacidad de los usuarios.

 

Publicado en La Segunda junto a Romina Garrido, investigadora asociada GobLab UAI

 

Contenido relacionado

Redes Sociales

Instagram