Ética en Inteligencia Artificial: lo bueno, lo malo y lo feo

27 de Octubre 2021 Columnas

Por muchos años nuestra calidad de vida ha mejorado producto de muchas aplicaciones de la automatización que nos impactan en nuestros hogares, sociedad, industria, negocios, sector público, etc. La automatización inherente en todas estas aplicaciones actuales posee un aspecto en común: esta fue diseñada por especialistas humanos que resuelven un problema por intermedio de un procedimiento algorítmico para luego implementarlo en la correspondiente aplicación computacional. Si el programa computacional toma una mala decisión, no es de beneficio para las personas, genera sesgos y perjudica a alguien. La responsabilidad recae evidentemente en los especialistas humanos pues fueron ellos quienes establecieron el procedimiento a seguir para construir dicha aplicación.

Sin embargo, existen muchos problemas que la automatización tradicional no puede resolver eficientemente, pues el entorno en el cual opera la máquina es extremadamente cambiante o desconocido, no existe un procedimiento o reglas claras a seguir, la cantidad de soluciones posibles es demasiado grande para ser exploradas eficientemente. Además, la solución a un problema requiere conocimiento experto y autonomía que la máquina convencional no posee. Una solución a estos problemas involucra el uso de tecnologías de Inteligencia Artificial (IA) que, a diferencia de la automatización previa, pueden operar en forma autónoma en entornos complejos para los cuales no fue programado previamente, utilizando capacidades de percepción (para captar estímulos), razonamiento (para tomar decisiones) y actuación (para realizar las acciones).

Con el crecimiento de aplicaciones de la IA que operan en forma autónoma en todo ámbito, comienzan a surgir otras dificultades. Por ejemplo, ¿quién decide qué es bueno o malo para un usuario o cliente de una aplicación o sistema completo? ¿Cómo puedo determinar si alguna acción podría tener efectos indeseados para un humano? ¿Cómo sigo principios éticos en la toma de decisiones? Claramente, ahora que el computador puede tomar sus propias decisiones, la respuesta a esas preguntas sobre la ética y responsabilidad de las decisiones ya no es evidente.

En ese contexto, a medida que el impacto de la IA ha ido creciendo, un tópico que ha cobrado gran interés en la comunidad internacional es la incorporación de principios y mecanismos éticos en las máquinas con IA, que sea de beneficio de las personas.

El impacto sociocultural positivo que esto puede generar es incuestionable, pues muchos problemas que requieren tecnologías de IA, deben tomar decisiones de impacto ético positivo, como el impacto negativo en salud (ejemplo, el diagnóstico médico negligentes).

Para abordar todo esto, usualmente se sugiere que los principios para la ética en las máquinas sigan cuatro derechos fundamentales: el respeto por la autonomía humana, la prevención del daño, la justicia en las decisiones y la explicabilidad de las decisiones. La sinergia de estos derechos debería asegurar que las máquinas inteligentes en el corto-mediano plazo no solo tomen decisiones éticas, sino que también constituyan sistemas autónomos robustos y confiables para beneficio de los seres humanos y la sociedad en general.

Publicado por El Mercurio.

Redes Sociales

Instagram