lunes, 2 de mayo de 2016

Sobre Androides Y Ovejas Eléctricas

Santiago Alfredo Kelley Padilla
A01226167
Sobre Androides y Ovejas Eléctricas
Abstract:
En este ensayo se hablará de los dilemas éticos que vienen con la creación de una inteligencia artificial, enfocándose en los temas de dignidad y derechos humanos. También se revisaran las preocupaciones sobre el futuro en el caso de la creación de una inteligencia artificial y la validez de estos.
Palabras Clave:
Inteligencia Artificial, Superinteligencia, Robotica, Sistemas Inteligentes, Aprendizaje de Máquina.
“1. Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.” (Asimov, 1950)
Cuando la primera computadora fue encendida, las mentes de los escritores de ciencia ficción tuvieron un nuevo elemento para crear historias y futuros impresionantes. Si bien los temas varían, hay uno que parece permanecer constante en las obras de los más reconocidos escritores; la inteligencia artificial. Sea para bien o para mal, la inteligencia artificial fue y sigue siendo un buen tema para películas y novelas, presentando las posibles ventajas o riesgos que vienen al desarrollar una mente sintética más poderosa que la de los humanos. La cita con la que abre este trabajo son las Tres Leyes de Asimov para la robótica, leyes que Isaac Asimov creía escencial para evitar que los robots hicieran daño a los humanos.
En este ensayo se intentará analizar el tema y probar que los posibles riesgos son, o improbables o no tienen el peso suficiente para impedir el desarrollo de este tipo de sistemas. La importancia de esto viene del hecho que cada día que pasa, está más cerca una mente artificial igual o más poderosa que la de un humano promedio, si no es que ya existe.
Para poder analizar la inteligencia artificial, se debe de definir primero el concepto. Inteligencia artificial se refiere a “ciertos sistemas creados por los seres humanos que constituyen agentes racionales no vivos. […] consiste en el diseño de procesos que, al ejecutarse sobre una arquitectura física, producen resultados que maximizan una cierta medida de rendimiento. Estos procesos se basan en secuencias de entradas que son percibidas y almacenadas por la mencionada arquitectura.” (Definicion.de)
Siendo esta una definición muy general, que incluye desde sistemas inteligentes instalados en automóviles hasta sistemas de análisis de la bolsa de valores, tenemos que tomar algún tipo de sistema en específico. Para efectos de este ensayo, se tomara lo que se llama una “superhumanidad débil”, que es una arquitectura neural parecida a la de un humano, solo que con una velocidad mucho mayor, en la que 31 segundos físicos podría ser equivalente a un año de pensamiento humano (Vinge, 1993).
El primer escenario que se nos presenta es si una inteligencia artificial debería ser tratada con el mismo estado moral que un humano. Esto impediría que se usaran solamente como herramientas siguiendo la ética kantiana, pues como los humanos, deberían de considerarse fines. El argumento base, siendo que, para que a algún ser se le considere moral, debe de tener la capacidad de sentir dolor y placer y la capacidad de tomar decisiones utilizando la razón (Warren, 1997).
Si una inteligencia artificial fuera programada para simular dolor o placer al recibir ciertos estímulos, cumpliría con el primer requisito. Por la definición que se tomó, el segundo requisito inherentemente es cumplido. Sin embargo, no hay razón por la que deba ejercer todos los derechos de un humano. Una inteligencia artificial podría ser programada sin un concepto de dignidad, o con una meta que persigue. No hay razón por la que deba de tener motivos de acción considerados humanos (Bostrom 2003), como la búsqueda de la felicidad, la formación de una familia o la realización profesional, cosas que se consideran necesarias para la vida humana. Una tarea que se podría considerar mundana o denigrante para un humano, una inteligencia artificial podría estar diseñada para cumplirla, sin entrar en esclavitud como tal.
El segundo problema que entra en el tema de inteligencia artificial es el tema central de películas icónicas sobre el tema. Han habido varias discusiones a lo largo de los años sobre los peligros de la inteligencia artificial. Si se le diera a una máquina de este tipo, control sobre administración de recursos o toma de decisiones importantes, no se puede predecir lo que la máquina en algún momento podría decidir. Los cambios en la arquitectura cognitiva podría dar resultados que ninguna mente humana puede predecir. (Vinge, 1933)
Esto puede dar lugar a escenarios en los que la humanidad es devastada por una inteligencia artificial imparable, siendo que esta inteligencia podría en teoría rediseñarse y mejorarse cada vez más. Los humanos, al ser limitados por la lenta evolución biológica, serían dejados atrás. (Hawking, 2014)
La solución a este problema, es darle a la superinteligencia una meta final “amigable”, su último fin sería algo beneficioso para la humanidad, que a la vez la proteja. De esta manera, es imposible que deliberadamente evolucione de una manera en la que dañe a la civilización. La base de la arquitectura motivacional de una inteligencia artificial puede estar diseñada para este fin. El argumento de una posible “revolución” por parte de las tecnologías para liberarse de los humanos, está más bien creado por la “Tendencia de la Buena Historia”. Esta tendencia dice que al analizar los riesgos del desarrollo de una superinteligencia, están influenciados por lo que se considera que haría una buena historia, dado forma por la televisión y las novelas que abordan el tema.(Bostrom, 2002)
Finalmente, las ventajas que traería el desarrollo de una inteligencia artificial son superiores a los posibles riesgos que lleva. Desde la capacidad para dar diagnósticos médicos casi precisos y con rapidez (latimes.com, 2011), hasta el manejo de el mercado y análisis de la bolsa de valores (BBC, 2001). Con acceso a la nanotecnología, una inteligencia artificial podría realizar operaciones riesgosas a personas con un margen de error reducido enormemente. Podría analizar las posibles acciones para resolver un problema, hacer simulaciones de cada una y escoger la mejor para la humanidad en cuestión de minutos.
De acuerdo con el utilitarianismo, la mejor decisión es la que trae el mayor bien para el mayor número de personas. Crear una herramienta como lo es la inteligencia artificial trae consigo beneficios con más peso que los posibles riesgos. Los beneficios son casi inmediatos y se sabe con seguridad que sucederán, los riesgos son situaciones hipotéticas basadas en la ficción.
Bibliografía Básica:
Bostrom, N. (2011). The Ethics of Artificial Intelligences. Retrieved February 12, 2016, from http://www.nickbostrom.com/ethics/artificial-intelligence.pdf
Bostrom, N. (2002).Existential Risks. Retrieved February 12, 2016, from http://www.nickbostrom.com/existential/risks.html
Bostrom, N. (2003).Ethical Issues in Advanced Artificial Intelligence. Retrieved February 12, 2016, from http://www.nickbostrom.com/ethics/ai.html
Definición de inteligencia artificial — Definicion.de. (n.d.). Retrieved February 12, 2016, from http://definicion.de/inteligencia-artificial/
Vinge, V. (n.d.). The Coming Technological Singularity, Vernor Vinge 1993. Retrieved February 15, 2016, from http://accelerating.org/articles/comingtechsingularity.html
Warren, M. A. (1997). Moral status: Obligations to persons and other living things. Oxford: Clarendon Press.
Bibliografía Complementaria:
Asimov, I. (1950). I robot. Garden City, NY: Doubleday.
IBM's Watson supercomputer to give instant medical diagnoses. (n.d.). Retrieved February 12, 2016, from http://latimesblogs.latimes.com/technology/2011/09/ibm-watson-wellpoint.html

Stephen Hawking warns artificial intelligence could end mankind - BBC News. (n.d.). Retrieved February 12, 2016, from http://www.bbc.com/news/technology-30290540

No hay comentarios:

Publicar un comentario