Ética y transparencia de la Inteligencia Artificial

27 de Enero 2021 Columnas

La Inteligencia Artificial (IA) es un campo de investigación y desarrollo enorme, formada por múltiples subáreas no necesariamente integradas sobre una misma base científica o metodológica. La IA abarca una gran porción de lo que llamamos “Ciencia de los Datos”, más conocida como Data Science. El tema de la “IA explicable” (Explainable Artificial Intelligence o XAI) es de los más activos en investigación, y toca muchos aspectos de Data Science, especialmente a través del Aprendizaje Automatizado (o Machine Learning). En ella, creamos y entrenamos algoritmos -con datos previamente disponibles o en interacción con el medio- para resolver diversos desafíos, por ejemplo, automatizar la solución de problemas de clasificación (¿le damos o no el préstamo al solicitante?), de toma de decisiones (¿compramos acciones de SAP?), o de predicción (¿va a subir el dólar después de la salida de Trump?), entre tantas otras tareas que se basan en el uso de datos masivos. Lo que efectivamente es indiscutible, es que cada una de estas acciones, informadas por máquinas, pero entrenadas y creadas bajo criterios humanos, influye en las expectativas, proyectos y calidad de vida de las personas. Lo menos que se puede esperar es obtener, también de manera automática, explicaciones a, o junto con,  los resultados entregados por estos algoritmos.

Gran parte de la IA explicable cae bajo el manto más amplio de lo que hoy llamamos “IA ética y transparente”. No es difícil ver la conexión. Por ejemplo (algo extremo, pero que ilustra el punto), aplica en el caso de si una explicación nos dice que el préstamo no fue otorgado porque el solicitante pertenece a una etnia específica, evidenciando un problema con el algoritmo, ya sea con su diseño, implementación o, más probablemente, con los datos que se usaron para entrenarlo. Muy posiblemente ya existía sesgo en los datos, producto de pasadas experiencias de discriminación en el procesamiento de solicitudes de préstamo.

Así, la ética de los algoritmos de la IA, de su grado de “fairness” o carencia de sesgo, se ha vuelto crucial. Muchos productos en este ámbito y su uso tienen y tendrán impacto creciente sobre las personas. Dado que ellas están expuestas a decisiones o acciones de algoritmos de IA, se hace necesario protegerlas. Así es como ya varios países están introduciendo legislación al respecto, y también guías de procedimiento en torno al diseño, implementación, uso y adquisición de productos de la IA.

Esta materia no está resuelta aún, ni existe “la” solución universal indiscutida. Hay mucha investigación básica y práctica que desarrollar. No es extraño que los temas de explicabilidad, fairness, sesgo, ética, transparencia e interpretabilidad de los sistemas de IA sean los que más llaman la atención en las principales conferencias internacionales de IA, y Chile no queda ajeno a este debate constructivo.

Nueva Zelanda, Canadá, Reino Unido, y otras naciones, ya trabajan sostenidamente en la introducción de legislación y procedimientos en estas áreas.  Hoy, éstas constituyen el núcleo de la discusión en torno al uso de sistemas IA a nivel mundial, que involucra el uso ético de los datos. El debate apunta a identificar y desarrollar modos de garantizar que los sistemas de toma de decisiones automatizadas basados en IA no involucren criterios discriminatorios. De este modo, además de evitar decisiones indeseadas, se estará  ayudando a mejorar la confianza en estos mecanismos.

Chile está comenzando a avanzar sostenidamente en los aspectos científicos y técnicos, mediante investigaciones en curso en el país; y legislativos en la gestión ética y transparente en IA. Debemos prepararnos, ya que es una tendencia mundial que, más temprano que tarde, llegará para influir en nuestras políticas, leyes y normas. En una sociedad hiperconectada y digitalizada, este es el foco de la discusión internacional.

Publicada por Mundo en Línea.

 

Redes Sociales

Instagram