Las 10 cosas que más tememos de la Inteligencia Artificial

3 de Abril 2023 Noticias

En conversación con el diario La Tercera , el académico de la Facultad de Ingeniería y Ciencias, John Atkinson, entrega diez temores que genera la Inteligencia Artificial en la actual sociedad:

1-Resultados Sesgados: Dado que los algoritmos de IA son creados por humanos, cualquier persona que agregue sesgos a la tecnología del algoritmo puede hacerlo. Las técnicas de IA producirán resultados sesgados si se desarrollaron con parcialidad o si los datos utilizados como conjuntos de entrenamiento para los algoritmos estaban sesgados. Los robots y las máquinas pueden tener efectos no previstos como resultado de esta realidad.

2-Pérdidas de trabajo: Como en todo cambio tecnológico, pueden producirse pérdidas de trabajo en ciertos nichos específicos. Sin embargo, también puede haber muchos puestos de trabajo creados por la IA. De hecho, muchos estudios predicen un aumento neto de nuevos puestos de trabajo o al menos anticipan que se creará la misma cantidad para reemplazar los que se pierden como resultado de la tecnología de IA. Algunos trabajos que la IA podría crear: detectives o científicos de datos, ingenieros de robótica, administradores de máquinas y programadores (que puedan codificar en Python), considerado una clave para el desarrollo de la tecnología.

3-Incomprensión: Muchos de los resultados de la tecnología de IA son difíciles de explicar debido a la naturaleza de las técnicas utilizadas, que muchas veces para los no-especialistas operan como “caja negra”. Más aún, en casos recientes como el de ChatGPT muchos resultados que genera la herramienta son muy impredecibles y aún difíciles de controlar. Los sistemas de IA más avanzados son también los menos capaces de justificar sus decisiones, a pesar de que son los que hacen las predicciones más precisas.

4-Seguridad: El ritmo al que se pueden completar las tareas de automatización complejas se incrementa con tecnologías de IA avanzada, usualmente superando nuestra capacidad como humanos para mantener dicho ritmo. La automatización en diversos sectores productivos puede dificultar que los humanos detecten actos malvados, la introducción de virus y el uso de sistemas de IA para debido a la forma en que estos sistemas ven el mundo. En aplicaciones actuales, mucha información puede quedar al descubierto.

5-Terrorismo cibernético: Podría surgir un nuevo tipo de terrorismo al que enfrentarse que utiliza IA. Esto podría abarcar desde el desarrollo de drones autónomos y la creación de enjambres robóticos hasta el uso de mini-robots para ataques remotos o la propagación de enfermedades. Aunque la adopción continua eventualmente podría generar efectos negativos, estos se minimizan en la mayor medida posible, el resolverlos tomará tiempo y un amplio razonamiento para encontrar las mejores formas de prepararse para el futuro.

6- Privacidad: Una de las mayores preocupaciones que surgen en variados estudios es la seguridad y el uso de datos de consumidores por parte de sistemas de IA. Muchas empresas ya eluden las violaciones de privacidad de datos con sus prácticas de recopilación y uso, y los expertos temen que esto pueda aumentar a medida que crezca el uso de aplicaciones masivas de IA. Otra preocupación es que actualmente existen pocas regulaciones sobre IA (en general, o sobre privacidad de datos) a nivel nacional o internacional.

7- Interacción con humanos: Usualmente en aplicaciones tradicionales de la IA la interacción entre humanos y los sistemas de IA no era una preocupación. Ahora con muchas aplicaciones de la IA en lo cotidiano, ¿cómo afecta a los humanos la interacción con la IA? Si las empresas confían demasiado en las predicciones realizadas por tecnologías de IA sobre cuándo se realizará el mantenimiento sin otros controles, podría provocar fallas en la maquinaria, o incluso los modelos en el área de la salud podrían causar diagnósticos erróneos.

8-Invasión de máquinas: Posibilidad que las máquinas con IA se vuelvan más “humanas”. Esto es un tema bastante recurrente en la cultura popular y en la discusión pública sobre el futuro tecnológico. Parte del miedo de que las máquinas superen a la inteligencia humana y que se pongan en contra de sus diseñadores proviene mucho de variadas películas de ciencia ficción. Sin embargo, el estado de la IA actual no es lo suficientemente avanzada como para ser consciente de sí misma o para tener la capacidad de rebelarse. Otra cosa diferente es que para cierto tipo de respuestas, como en el caso de aplicaciones como CharGPT la gente “piense” que la máquina es consciente, pero no, esta simplemente está realizando buenas predicciones sin entender lo que lee o genera. La idea que los computadores puedan tener emociones se basa generalmente en el supuesto incorrecto de que las emociones son solo un tema de procesamiento de información, siendo que esta involucra interacciones complejas entre la biología y el entorno.

9- Manipulación y vigilancia social:Este riesgo se ha convertido en realidad a medida que los políticos confían en plataformas para promover sus puntos de vista, con ejemplos recientes de instituciones a nivel internacional que manejan un ejército de trolls de TikTok para capturar los votos de los ciudadanos. Las críticas a este tipo de aplicaciones apuntan a este proceso y a la falla de los métodos de IA para filtrar contenido dañino, lo que genera dudas sobre la capacidad de los medios para proteger a sus usuarios de medios engañosos.También se puede generar una supervigilancia social. Un ejemplo es el uso por varios países de tecnología de reconocimiento facial en diferentes lugares. Además de rastrear los movimientos de una persona, los respetivos gobiernos pueden recopilar suficientes datos para monitorear las actividades y puntos de vista políticos de una persona. Otro ejemplo son las unidades policiales que utilizan predicciones basadas en IA para anticipar los delitos.

10- Que se vuelva humana y tenga sentimientos: Es muy complicado imaginarle un rostro a un proceso de datos que no son tangibles, sino que están almacenados en servidores. Pero sí es más posible, ahora que las IA conversan de manera más eficaz, imaginarles sentimientos a esos sistemas informáticos. Y eso es muy peligroso. Igual que una imagen puede generar una sensación y un texto vehicular una emoción, hay ya personas mostrándose sorprendidas porque ChatGPT refleje su tristeza o felicidad en sus respuestas.

Redes Sociales

Instagram