Quienes se han dedicado a reflexionar sobre los riesgos potenciales de una futura inteligencia artificial general (IAG) han hecho foco en la posibilidad de que la IAG pueda llevar a cabo su objetivo asignado de una manera que no anticipamos, con efectos potencialmente catastróficos (Yudkowsky, Bostrom, Omohundro, Yampolskiy, Tegmark, Russell).
Sin embargo, estos pensadores no han prestado atención a la posibilidad de que la IAG pueda llegar a vernos como una amenaza a su existencia y que, en consecuencia, pueda intentar eliminarnos de manera deliberada. El objetivo del presente trabajo es mostrar que esta falta de atención conduce a un error.
En esta presentación, Wolfhart Totschnig, Doctor de Filosofía por Northwestern University, Profesor Asociado del Instituto de Filosofía, Universidad Diego Portales describe un escenario posible en el cual la IAG y la humanidad se encuentran en una situación de mutua vulnerabilidad, lo cual podría conducir a una guerra total. Luego argumentará que, en vistas a esta posibilidad, el enfoque de dichos pensadores, abocado a buscar maneras de mantener a la IAG bajo control, es potencialmente contraproducente porque, en última instancia, podría provocar la catástrofe existencial que intenta prevenir.
Organizan:
Magíster en Filosofía Política y Ética UAI.
Departamento de Filosofía UAI.
Proyecto FONDECYT Regular Nro 1220403 “The Concept of Human Dignity in the Anthropocene: Rethinking the Place of Human Beings on Earth”.