martes, 22 de noviembre de 2016

Responsabilidad Artificial

Carmina Pérez Guerrero
A01226436
Actualmente se vive en una sociedad del conocimiento donde los avances en la tecnología evolucionan de manera exponencial y a una velocidad impresionante, causando grandes cambios en diversos ámbitos profesionales, sociales, económicos y éticos, por mencionar algunos. La inteligencia artificial (IA), una ciencia cuyo objetivo es el estudio y el análisis del comportamiento humano para crear sistemas capaces de replicarlo (Hardy, 2001), es parte de este gran movimiento tecnológico y no es la excepción en crear nuevos paradigmas y dilemas.
La inteligencia artificial, aunque ha sido un tema recurrente en la literatura desde el año 1942 con los textos de Isaac Asimov, es una ciencia muy reciente, su desarrollo comenzó poco después de la Segunda Guerra Mundial y el nombre se acuñó hasta 1956 (Cognitiva, s.f.). A pesar de su reciente establecimiento, ya se ha vuelto indispensable en varios campos profesionales como la medicina, la legislación, la educación, las finanzas, y las posibilidades van en aumento; pero con todo este potencial es inevitable preguntarse: ¿hasta qué punto se debe dar autoridad o libertad a la IA en la toma de decisiones?, en un caso con resultados contraproducentes, ¿quién tomaría la responsabilidad?, si una IA es capaz de razonar, tener emociones, cuenta con un nivel de libertad y se le puede hacer responsable de sus acciones, ¿no es eso lo que consideramos de manera moral como un humano?, ¿ Hasta qué punto se considera una IA diferente a un humano?.
En este ensayo se hablará de los dilemas éticos generados a partir de la IA como participante crítico en la toma de decisiones y se definirán los límites o fronteras entre inteligencia artificial y humanismo.
Palabras clave (Key words): Inteligencia Artificial, responsabilidad moral, dignidad, libertad, responsividad moral, roboética.
En la actualidad, unas de las plataformas de inteligencia artificial más prominentes son el automóvil Lexus capaz de conducirse a sí mismo desarrollado por Google y el sistema de computación cognitiva abierta Watson, desarrollada por IBM. Este último fue creado para trabajar en la toma de decisiones al procesar cantidades masivas de datos estructurados y no estructurados para producir conocimientos accionables en cuestión de segundos (Cognitiva, s.f.), uno de sus logros más importantes ha sido diagnosticar en menos de 10 minutos un tipo raro de leucemia en una mujer de 60 años que había sido identificado de manera errónea meses antes, salvándole la vida (Drita, 2016).
IBM sigue agregando y ampliando los límites de lo que esta IA puede hacer para expandir la especialización y mejorar la toma de decisiones, además, la International Data Corporation (IDC) predice que hacia 2018, la mitad de los consumidores interactuará regularmente con servicios basados sobre computación cognitiva como lo es Watson (Cognitiva, s.f.). Al tomar en cuenta este ejemplo donde la vida de una persona dependió del razonamiento cognitivo de Watson y las estadísticas a futuro que presenta la IDC, es importante recordar que la toma de decisiones ocurre frente a dilemas que surgen cuando existen diversas alternativas durante condiciones de incertidumbre y que en el momento en el que estos dilemas entran en conflicto con aspectos relacionados con la moral, como es el bienestar de una persona en este caso, se convierten en dilemas éticos que deben ser analizados (Garzón, 2001). De haber resultado en un diagnóstico que afectara de manera negativa la vida de esta persona con leucemia, es necesario definir en donde o en quien recaería la responsabilidad moral.
Para que se ejerza la responsabilidad moral, el agente moral debe tener cierta libertad de opción y decisión. Según Aristóteles, el sujeto tiene que cumplir con dos condiciones fundamentales: Tener un carácter consciente y que su conducta sea libre (Vázquez, 2006, p 93-94). Este concepto es muy importante, pues condiciona críticamente el grado de autonomía de las máquinas inteligentes. Dentro del campo de la IA existen dos posturas principales que definen la conciencia y libertad de los sistemas, la IA fuerte, que le atribuye cualidades mentales a su funcionamiento lógico y la IA débil, que la define simplemente como una herramienta útil para efectuar simulaciones de dichas cualidades mentales (Hardy, 2001, p. 3).
De acuerdo a las ideas de la IA fuerte “toda actividad mental es de tipo computacional, incluidos los sentimientos y la conciencia” (Malpica, s.f.), por lo tanto, se pueden aplicar en un sistema de IA. Esto significaría, no solamente que el sistema inteligente cuenta con las cualidades necesarias para ejercer una responsabilidad moral, si no también que contaría con un estado moral equivalente al humano y por ética kantiana sería merecedor de una dignidad donde no se le debe usar como mera herramienta. Con lo anterior, la IA fuerte crea otro dilema ético que involucra la dignidad de un nuevo ser consiente que se materializa en los sistemas de IA, pero si observamos la actualidad de estas plataformas, no ha sido posible programar un ordenador de modo que sea consciente de sí mismo (Martínez, 2012, p. 9), tomando la definición de conciencia como la capacidad para debatir, reflexionar y darse cuenta de la propia existencia (Malpica, s.f.), lo que convierte a las ideologías de la IA fuerte en suposiciones sin sustento o evidencia para crear un dilema ético pertinente.
La IA débil, por otro lado, establece que “la conciencia es una característica propia del cerebro, y mientras toda propiedad física se puede simular computacionalmente, no se puede llegar por este procedimiento al fenómeno de la conciencia en su sentido más genuino” (Malpica, s.f.), la conciencia se convierte en algo imitable pero no reproducible (Hardy, 2001, p. 22). Es verdad que en el presente los sistemas cognitivos existentes hacen en realidad una imitación superficial de la inteligencia y la conducta humana, por lo que la plataforma no es realmente sujeto de aquello que hace (Martínez, 2012, p. 8). “La falta de libertad y, por tanto, de responsabilidad de las máquinas se presenta aquí como factor crítico para limitar su acción y autonomía” (Cuadra, 2002, p. 15), alguien tiene que hacerse responsable de sus decisiones. La IA puede generar el conjunto de soluciones óptimas ante un dilema y en problemas que incluyen atributos éticamente conflictivos, la decisión final debe ser tomada por una persona que se haga responsable de las consecuencias (Cuadra, 2002, pp. 14-15).
Una IA no puede ser responsable de sus actos hasta que las decisiones que tome sean de manera libre y consiente, pero se le puede atribuir una responsividad ética debido a la relación humano-máquina que aun entra en juego. Susana Patiño define este concepto en su libro La responsividad ética como la capacidad de ser responsable de los otros y por los otros, más allá de los límites del contrato liberal o del respeto a una abstracta autonomía (Plascencia, 2012, p.193). En la capacidad ética responsiva no hay una comprensión del otro, sin embargo, articula las éticas de la solicitud y el cuidado con las de la justicia y la exigencia normativa (Santamaría, 2012, p.193).
La Roboética también trata el aspecto moral de las interacciones humano-maquina ya que “los avances tecnológicos están ligados no sólo a la capacidad humana, sino también a las repercusiones que pudiesen tener en todas las sociedades donde estas máquinas formarán parte de la vida diaria e interaccionarán con las personas” (Castrillón et al, 2008, p.3) y el medio ambiente. Este nuevo campo de investigación considera a los robots, computadoras y máquinas inteligentes un tipo de agentes éticos e intenta implementar en ellos facultades morales de toma de decisiones. Se distinguen dos clases, los agentes éticos implícitos, que son máquinas programadas para evitar conductas inmorales, comportándose éticamente y los agentes éticos explícitos los cuales son máquinas que calculan la mejor acción a seguir, usando principios éticos y algoritmos de solución de dilemas éticos (Castrillón et al, 2008, p.3).
En el escenario actual, se puede observar que la inteligencia artificial como sistema, no tiene libertad en su proceso de pensamiento, por lo que no se le puede hacer responsable de los efectos que tengan las decisiones que toma. Debido a esto, desde su diseño hasta su ejecución, debe estar involucrado un humano que sea moralmente responsable en cada etapa del proceso. De igual manera es imperativo la creación de limitantes éticos basados en la Roboética, ya que estos sistemas son capaces de ejercer una reponsividad moral en donde se debe asegurar el uso y fin moral de estas herramientas de acuerdo al respeto de la dignidad y la justicia social.
Una IA nunca podrá considerarse equivalente a un ser humano mientras los avances tecnológicos no puedan replicar de manera fiel la conciencia humana, esto significa que además de poder generar pensamientos y juicios, la IA cuente con emociones, sentimientos y decisiones y sea capaz de conocer y pensar con ideas abstractas, contando con las propiedades de la libertad, la voluntad y la creatividad como lo establece la IA fuerte. Los límites actuales de la IA se encuentran en la tecnología misma como lo define la IA débil y es la frontera definitiva entre una IA y el ser humano.
Bibliografía Básica:
Castrillón, O., Rodríguez, M., & Leyton, J. et al. (2008). Ética e inteligencia artificial ¿Necesidad o urgencia? Memorias, 3. Recuperado de: http://www.iiis.org/CDs2008/CD2008CSC/CISCI2008/PapersPdf/C054TM.pdf
Cuadra García, F. (2002). Límites éticos de la inteligencia artificial. Canales de mecánica y electricidad (Vol. 79, No. 1, pp. 10-15). Asociación de Ingenieros del ICAI.
Hardy, T; (2001). (IA: Inteligencia Artificial). POLIS, Revista Latinoamericana, 1. Recuperado de http://www.redalyc.org/articulo.oa?id=30500219
Martínez, D. (2012). El yo y la máquina: Cerebro, mente e inteligencia artificial. Ediciones Palabra: Madrid.
Santamaría Plascencia, A L; (2012). LA RESPONSIVIDAD ÉTICA. En-claves del Pensamiento, VI() 193-198. Recuperado de http://www.redalyc.org/articulo.oa?id=141125359009.
Vázquez, S. (2006). Responsabilidad moral. Ética. Capítulo 5.
Bibliografía Complementaria:
Cognitiva. (s.f.). ¿Qué es IBM Watson?. Recuperado de: http://cognitiva.la/que-es-ibm-watson/
Drita. (2016). Watson, el sistema IA de IBM, salva la vida de una mujer con leucemia. Engadget. Recuperado de: http://es.engadget.com/2016/08/07/watson-ia-ibm-salva-mujer-leucemia/
Garzón, N. (2001). Toma de decisiones éticas. Ética y bioética. Recuperado de: http://www.bdigital.unal.edu.co/783/10/263_-_9_Capi_8.pdf

Malpica, J.A. (s.f.). Inteligencia Artificial y conciencia. UAH. Recuperado de: http://www3.uah.es/benito_fraile/ponencias/inteligencia-artificial.pdf

No hay comentarios:

Publicar un comentario