La ética artificial
Yael Alejandro Chiquito García
********************************************************************************************
Abstract
La inteligencia artificial es una megatendencia con un campo de acción extremadamente amplio, esta tecnología permite enseñar a una máquina a realizar tareas específicas como lo haría un humano, e incluso mejor. Este campo de acción casi ilimitado da lugar a una tremenda problemática, la cual es: ¿Debe existir un límite en el desarrollo de esta tecnología? y si es así, ¿dónde se debe poner el límite en estos desarrollos? En este ensayo se busca introducir a esta problemática, así como presentar una propuesta para manejarla.
Este tema es importante para la dignidad humana porque eventualmente se puede poner en riesgo, ¿cómo enseñarle a una máquina que respetar la dignidad de una persona es más que no hacerle daño físico?. Estos sistemas ya son parte de nuestra sociedad, probablemente más de lo que nos imaginamos, y como miembros de la sociedad interactúan con seres humanos, ¿Hay reglas que le digan a este tipo de sistemas cómo se debe respetar la dignidad? aún más ¿Hay alguna manera de programar el concepto de dignidad humana?
Del mismo modo, el impacto en la sociedad puede llegar a ser enorme, actualmente es complicado de apreciar, pero las películas de ciencia ficción donde la sociedad es una combinación entre máquinas y seres humanos está cada vez más cerca, y la trama de todas estas películas tienen un común denominador: las máquinas no comprenden temas morales y éticos que para nosotros son casi obvios. Es por eso que hay que traer a primer plano esta problemática antes de que el problema sea el que nos alcance.
Keywords:
Inteligencia artificial (AI), ética artificial, códigos morales, sistemas inteligentes, desarrolladores.
********************************************************************************************
Elon Musk, creador y fundador de Paypal, Tesla, y SpaceX declara en relación a la inteligencia artificial: “Es como esas historias en las que alguien convoca al demonio. Siempre hay un tipo con un pentáculo y agua bendita convencido de que así podrá controlarle, y claro, no funciona”. Musk señala que esta tecnología avanza tan rápido que puede significar un peligro equiparable al de un maletín nuclear. Este peligro viene de la amenaza de que la inteligencia artificial supere al ser humano en muchos ámbitos, y de esta preocupación surge la pregunta: ¿Las máquinas podrán pensar algún día como los seres humanos? La respuesta corta es no. Las máquinas no pueden pensar como los seres humanos no por las limitaciones de procesamiento, sino por la naturaleza del pensamiento humano, el pensar de las máquinas nunca podrá incorporar elementos que son decisivos en la toma de decisiones.
Un elemento crucial en la toma de decisiones que, actualmente, se le atribuye únicamente al ser humano es el de la moral, aunque fácilmente se podría programar un código moral en la inteligencia de alguna máquina, lo que nos lleva al siguiente nivel: la ética. Las infinitas posibilidades de la inteligencia artificial así como la velocidad con la que se está desarrollando nos deja el problema de la libertad que se les está dando, una libertad que raramente tiene un cuestionamiento moral, aparte de las 3 leyes de la robótica de Asimov (Asimov, 1950) las cuales solo contemplan el daño de los robots hacia los seres humanos, y nunca una reflexión ética. En este ensayo se analizarán desde una perspectiva ética los problemas provenientes del uso indiscriminado de la inteligencia artificial, los riesgos que conlleva y la pregunta de quiénes se harán responsables. (Ariza, 2017)
Se comienza con la pregunta de ¿Qué es la inteligencia artificial? Según Renato Gómez, divulgador científico de la UNAM: “La inteligencia artificial (AI) puede definirse como el medio por el cual las computadoras, los robots y otros dispositivos realizan tareas que normalmente requieren de la inteligencia humana. Por ejemplo, la resolución de cierto tipo de problemas, la capacidad de discriminar entre distintos objetos o el responder a órdenes verbales. La AI agrupa un conjunto de técnicas que, mediante circuitos electrónicos y programas avanzados de computadora, busca imitar procedimientos similares a los procesos inductivos y deductivos del cerebro humano. Se basa en la investigación de las redes neuronales humanas y, a partir de ahí, busca copiar electrónicamente el funcionamiento del cerebro.” (Gómez, 1999)
Los grandes avances recientes de esta tecnología, como los carros autónomos, sistemas de reconocimiento, sistemas que sobrepasan enormemente a los humanos en juegos de mesa, etc. hace pensar en las implicaciones y riesgos que la inteligencia artificial conlleva, ya que un sistema inteligente que convive con humanos es técnicamente parte de la sociedad, lo que trae consigo una infinidad de preguntas que, unas además de ser prácticas, son éticas. (Burton, 2017)
Este tipo de sistemas de inteligencia autónoma implican la habilidad de toma de decisiones y en esa toma de decisiones se pueden dar decisiones equivocadas por naturaleza o equivocadas por la moral. Esto hace que la AI esté ligada a una ética y dicha ética ¿Como se programa o se define y en que se relaciona con la moral humana? (Golata, 2016)
Tomando esto en cuenta, Nick Brostom (2014) comienza el debate hacia la creación de la “ética de la inteligencia artificial”- Esta ética busca crear un marco ético donde se desarrollen las máquinas pensantes. Esto para que no haya malicia en el desarrollo ni problemas éticos relevantes en su implementación. Esto le da la responsabilidad a los programadores, distribuidores, usuarios y beneficiarios de juzgar si el algoritmo o máquina tiene implicaciones éticas y rechazar las malas intenciones. (Villalba, 2013)
Como menciona de Cuadra, “Se considera aquí que las decisiones problemáticas desde un punto de vista ético son sólo aquellas que puedan perjudicar directa o indirectamente a las personas. Por lo tanto se debe cuestionar si el desarrollo y explotación de un sistema inteligente puede afectar a la vida, la salud (lo que incluye el medio ambiente), la libertad, la intimidad, el puesto de trabajo o la dignidad de alguien, y en general a su bienestar físico y mental.” (de Cuadra, 2013) Esto conlleva a definir un límite de acción de estos sistemas y la tecnología no es la que debe de dictar dichos límites porque, dado la vertiginosa velocidad con la que se desarrolla, nunca existirán límites reales. Sin embargo los problemas éticos que salen del uso de esta tecnología son los que deben marcar los límites. Un factor ético que vale la pena considerar es la valoración del fin que se le dará a su uso. (de Cuadra, 2013)
Estos problemas éticos involucran conflictos de valores. Las decisiones de negocios tienen juicios éticos y por esa razón no pueden tomarse solo en base a aritmética. Los que toman estas decisiones tienen en cuenta muchos marcos de referencia y las muchas consecuencias antes de tomarla. (Khalil, 1993) Simon (1990) explica que: “Yendo más allá de la inteligencia artificial, creo que tenemos “ética artificial” en todos lados hoy en día. Cada vez que una máquina toma una decisión, está implementando una serie de valores y objetivos y uno no estará feliz con el programa a menos que estés satisfecho con el balance de valores que fueron implementados” (Khalil, 1993) Se llega la pregunta ¿Y cuándo el desarrollador de la inteligencia estará satisfecho con el balance de valores? ¿Cúal es la motivación de estos sistemas? La inteligencia artificial en sí debe estar claramente motivada para no desviar sus recursos, Barrat cree que la eficiencia es el principal motivador de la AI, los otros siendo preservación propia, adquisición de los recursos necesarios y creatividad. Pero ¿es tan importante la eficiencia? Se debe buscar un equilibrio entre mera eficiencia y un desarrollo sostenible en este caso, un análisis utilitario podría dar casos en que se usen escasos recursos para un máximo impacto y no haber tomado en cuenta factores que son importantes pero no fácilmente cuantificables. (Golata, 2016)
Surge la pregunta de si los actores que tomarán decisiones racionales ponen como máxima la mayor eficiencia para obtener sus objetivos, ¿cómo se resolverán los varios aspectos situacionales? está claro que sin un marco ético, o más que sea moral, la AI puede poner simplemente la eficiencia o el interés económico antes que las consideraciones éticas, (Golata, 2016) es decir, se perdería la imparcialidad en la que debería de estar basado el bienestar buscado con esta tecnología, enfocado solamente en la empresa o organización que la desarrolle y olvidando la sociedad alrededor, el medio ambiente y otros grupos de interés afectados. Entonces más que sólo hacer que el objetivo de la AI sea maximizar eficiencia en favor de la empresa u organización, se debería de buscar que dicha eficiencia tomara de forma imparcial los intereses de todos los involucrados para lograr un impacto real en el bienestar general.
Es claro que para darle solución a estos problemas es necesaria la “implementación” de alguna ética de AI. Sin embargo, no se puede decir que existe autonomía ética en la AI, puesto que la AI como creación y diseño humano, está ligada a la ética humana. (Golata, 2016). Naturalmente, un experto en inteligencia artificial toma a un experto en algún área y toma su proceso de pensamiento y escribe las reglas que lo representen. Sin embargo el experto en el área no piensa en valores discretos, sino tiene un conjunto de factores que son imposibles de programar y poner en reglas que una máquina pueda entender. Así como la intuición o los aspectos inconscientes de la mente humana. Esto hace que muy frecuentemente el conocimiento de un experto humano que toma decisiones no pueda ser capturado y sintetizado en un sistema inteligente en su totalidad. (Khalil, 1993)
Siguiendo la misma lógica se podría pensar que, una vez desarrollado un sistema inteligente, se podría llamar al experto de ética para contribuir con su conocimiento al sistema, pero tal como argumenta Peter Han (2015), “uno no puede simplemente poner un módulo de ética al final de un sistema inteligente, sino que estos sistemas tienen que ser construidos desde la base para ser éticos, por lo tanto se tiene que enseñar a los programadores, prácticos y teóricos las implicaciones de su trabajo. “ (Burton, 2017)
Esto lleva a que el enfoque o pensamiento sobre la ética deba cambiar con base a los avances de la inteligencia artificial, porque ahora esas preguntas básicas de la ética que buscan obtener respuestas de la convivencia entre seres humanos tendrán ahora otro participante más, porque estos sistemas serán capaces de tomar sus propias decisiones basadas en su propio contexto, tal como un ser humano. Las preguntas sin una respuesta correcta de cómo se tendría que actuar en un caso ahora también tienen que ser formuladas desde la vista de una máquina. Las reglas de la robótica de Asimov dejaron de ser suficientes para controlar el comportamiento de una máquina, con este nuevo tipo de convivencia se tienen que añadir los reglas para respetar los derechos humanos, reglas para no violentar la dignidad de las personas a su alrededor, y que en su desarrollo se busque tomar la decisión lo más imparcialmente posible. Es por todo esto que el estudiante de inteligencia artificial, que desarrollará este tipo de sistemas, debería estudiar, además de todos los temas que se ven, teorías éticas y cómo se aplican. (Burton, 2017)
Ya que la inteligencia artificial genera dilemas éticos, se puede concluir que se debe de preparar a los estudiantes de esta rama en ética, haciendo que se den cuenta de los problemas éticos que la inteligencia conlleva, que aprendan sobre las teorías éticas básicas y que apliquen estos conocimientos a casos (Burton, 2017), y de este modo poder delimitar el campo de acción de este tipo de sistemas y sus limitaciones, aunque conforme avance el vertiginoso desarrollo de esta tecnología nos iremos topando con nuevos dilemas y problemas éticos que mientras se estén resolviendo de raíz, con buenas bases éticas de desarrolladores, no conllevarán a situaciones críticas.
Referencias:
Golata, P. A. (2016). The ethics of superintelligent design: A christian view of the theological and moral implications of artificial superintelligence (Order No. 10390417). Disponible en: ProQuest Dissertations & Theses Global. (1870514936). Recuperado de: http://0-search.proquest.com.millenium.itesm.mx/docview/1870514936?accountid=41938
Villalba Gómez, Jairo Andrés; (2016). Problemas bioéticos emergentes de la inteligencia artificial. Diversitas: Perspectivas en Psicología, Sin mes, 137-147 Recuperado de: http://www.redalyc.org/articulo.oa?id=67945904010
de Cuadra, Fernando. (2001). Límites Éticos de la Inteligencia Artificial. Anales de mecánica y electricidad, ISSN 0003-2506, Vol. 79, Fasc. 1, 2002, pags. 10-15. 79. . Recuperado de: https://www.researchgate.net/publication/28124883_Limites_Eticos_de_la_Inteligencia_Artificial
Khalil, O. E. M. (1993). Artificial decision-making and artificial ethics: A management concern. Journal of Business Ethics, 12(4), 313. Recuperado de: http://0-search.proquest.com.millenium.itesm.mx/docview/198104896?accountid=41938
Burton, E., Goldsmith, J., Koenig, S., Kuipers, B., Mattei, N., & Walsh, T. (2017). Ethical Considerations in Artificial Intelligence Course. AI Magazine, 22-34. Retrieved September 5, 2017, Recuperado de: http://idm-lab.org/bib/abstracts/papers/aimag17.pdf
Referencias complementarias:
Ariza, L. (2017) Ventajas y riesgos de la Inteligencia Artificial. Muy Interesante. Recuperado de: https://www.muyinteresante.es/tecnologia/articulo/ventajas-y-riesgos-de-la-inteligencia-artificial-651449483429
Gómez, R. (1999) La inteligencia artificial. ¿Cómo ves?, UNAM. Recuperado de: http://www.comoves.unam.mx/assets/revista/2/la-inteligencia-artificial-hacia-donde-nos-lleva.pdf
No hay comentarios:
Publicar un comentario