Carmina Pérez Guerrero
A01226436
Actualmente se vive en una sociedad del conocimiento
donde los avances en la tecnología evolucionan de manera exponencial y a una
velocidad impresionante, causando grandes cambios en diversos ámbitos
profesionales, sociales, económicos y éticos, por mencionar algunos. La
inteligencia artificial (IA), una ciencia cuyo objetivo es el estudio y el
análisis del comportamiento humano para crear sistemas capaces de replicarlo
(Hardy, 2001), es parte de este gran movimiento tecnológico y no es la
excepción en crear nuevos paradigmas y dilemas.
La inteligencia artificial, aunque ha sido un tema
recurrente en la literatura desde el año 1942 con los textos de Isaac Asimov,
es una ciencia muy reciente, su desarrollo comenzó poco después de la Segunda
Guerra Mundial y el nombre se acuñó hasta 1956 (Cognitiva, s.f.). A pesar de su
reciente establecimiento, ya se ha vuelto indispensable en varios campos
profesionales como la medicina, la legislación, la educación, las finanzas, y
las posibilidades van en aumento; pero con todo este potencial es inevitable
preguntarse: ¿hasta qué punto se debe dar autoridad o libertad a la IA en la
toma de decisiones?, en un caso con resultados contraproducentes, ¿quién tomaría
la responsabilidad?, si una IA es capaz de razonar, tener emociones, cuenta con
un nivel de libertad y se le puede hacer responsable de sus acciones, ¿no es
eso lo que consideramos de manera moral como un humano?, ¿ Hasta qué punto se
considera una IA diferente a un humano?.
En este ensayo se hablará de los dilemas éticos
generados a partir de la IA como participante crítico en la toma de decisiones
y se definirán los límites o fronteras entre inteligencia artificial y
humanismo.
Palabras clave (Key words): Inteligencia Artificial, responsabilidad moral,
dignidad, libertad, responsividad moral, roboética.
En la actualidad, unas de las plataformas de
inteligencia artificial más prominentes son el automóvil Lexus capaz de
conducirse a sí mismo desarrollado por Google y el sistema de computación
cognitiva abierta Watson, desarrollada por IBM. Este último fue creado para
trabajar en la toma de decisiones al procesar cantidades masivas de datos
estructurados y no estructurados para producir conocimientos accionables en
cuestión de segundos (Cognitiva, s.f.), uno de sus logros más importantes ha
sido diagnosticar en menos de 10 minutos un tipo raro de leucemia en una mujer
de 60 años que había sido identificado de manera errónea meses antes,
salvándole la vida (Drita, 2016).
IBM sigue agregando y ampliando los límites de lo que
esta IA puede hacer para expandir la especialización y mejorar la toma de
decisiones, además, la International Data Corporation (IDC) predice que hacia
2018, la mitad de los consumidores interactuará regularmente con servicios
basados sobre computación cognitiva como lo es Watson (Cognitiva, s.f.). Al
tomar en cuenta este ejemplo donde la vida de una persona dependió del
razonamiento cognitivo de Watson y las estadísticas a futuro que presenta la
IDC, es importante recordar que la toma de decisiones ocurre frente a dilemas
que surgen cuando existen diversas alternativas durante condiciones de
incertidumbre y que en el momento en el que estos dilemas entran en conflicto
con aspectos relacionados con la moral, como es el bienestar de una persona en
este caso, se convierten en dilemas éticos que deben ser analizados (Garzón,
2001). De haber resultado en un diagnóstico que afectara de manera negativa la
vida de esta persona con leucemia, es necesario definir en donde o en quien
recaería la responsabilidad moral.
Para que se ejerza la responsabilidad moral, el agente
moral debe tener cierta libertad de opción y decisión. Según Aristóteles, el
sujeto tiene que cumplir con dos condiciones fundamentales: Tener un carácter
consciente y que su conducta sea libre (Vázquez, 2006, p 93-94). Este concepto
es muy importante, pues condiciona críticamente el grado de autonomía de las
máquinas inteligentes. Dentro del campo de la IA existen dos posturas principales
que definen la conciencia y libertad de los sistemas, la IA fuerte, que le
atribuye cualidades mentales a su funcionamiento lógico y la IA débil, que la
define simplemente como una herramienta útil para efectuar simulaciones de
dichas cualidades mentales (Hardy, 2001, p. 3).
De acuerdo a las ideas de la IA fuerte “toda actividad
mental es de tipo computacional, incluidos los sentimientos y la conciencia”
(Malpica, s.f.), por lo tanto, se pueden aplicar en un sistema de IA. Esto
significaría, no solamente que el sistema inteligente cuenta con las cualidades
necesarias para ejercer una responsabilidad moral, si no también que contaría
con un estado moral equivalente al humano y por ética kantiana sería merecedor
de una dignidad donde no se le debe usar como mera herramienta. Con lo
anterior, la IA fuerte crea otro dilema ético que involucra la dignidad de un
nuevo ser consiente que se materializa en los sistemas de IA, pero si
observamos la actualidad de estas plataformas, no ha sido posible programar un
ordenador de modo que sea consciente de sí mismo (Martínez, 2012, p. 9),
tomando la definición de conciencia como la capacidad para debatir, reflexionar
y darse cuenta de la propia existencia (Malpica, s.f.), lo que convierte a las
ideologías de la IA fuerte en suposiciones sin sustento o evidencia para crear
un dilema ético pertinente.
La IA débil, por otro lado, establece que “la
conciencia es una característica propia del cerebro, y mientras toda propiedad
física se puede simular computacionalmente, no se puede llegar por este
procedimiento al fenómeno de la conciencia en su sentido más genuino” (Malpica,
s.f.), la conciencia se convierte en algo imitable pero no reproducible (Hardy,
2001, p. 22). Es verdad que en el presente los sistemas cognitivos existentes
hacen en realidad una imitación superficial de la inteligencia y la conducta
humana, por lo que la plataforma no es realmente sujeto de aquello que hace
(Martínez, 2012, p. 8). “La falta de libertad y, por tanto, de responsabilidad
de las máquinas se presenta aquí como factor crítico para limitar su acción y
autonomía” (Cuadra, 2002, p. 15), alguien tiene que hacerse responsable de sus
decisiones. La IA puede generar el conjunto de soluciones óptimas ante un
dilema y en problemas que incluyen atributos éticamente conflictivos, la
decisión final debe ser tomada por una persona que se haga responsable de las
consecuencias (Cuadra, 2002, pp. 14-15).
Una IA no puede ser responsable de sus actos hasta que
las decisiones que tome sean de manera libre y consiente, pero se le puede
atribuir una responsividad ética debido a la relación humano-máquina que aun
entra en juego. Susana Patiño define este concepto en su libro La responsividad
ética como la capacidad de ser responsable de los otros y por los otros, más allá
de los límites del contrato liberal o del respeto a una abstracta autonomía
(Plascencia, 2012, p.193). En la capacidad ética responsiva no hay una
comprensión del otro, sin embargo, articula las éticas de la solicitud y el
cuidado con las de la justicia y la exigencia normativa (Santamaría, 2012,
p.193).
La Roboética también trata el aspecto moral de las
interacciones humano-maquina ya que “los avances tecnológicos están ligados no
sólo a la capacidad humana, sino también a las repercusiones que pudiesen tener
en todas las sociedades donde estas máquinas formarán parte de la vida diaria e
interaccionarán con las personas” (Castrillón et al, 2008, p.3) y el medio
ambiente. Este nuevo campo de investigación considera a los robots,
computadoras y máquinas inteligentes un tipo de agentes éticos e intenta
implementar en ellos facultades morales de toma de decisiones. Se distinguen
dos clases, los agentes éticos implícitos, que son máquinas programadas para
evitar conductas inmorales, comportándose éticamente y los agentes éticos
explícitos los cuales son máquinas que calculan la mejor acción a seguir,
usando principios éticos y algoritmos de solución de dilemas éticos (Castrillón
et al, 2008, p.3).
En el escenario actual, se puede observar que la
inteligencia artificial como sistema, no tiene libertad en su proceso de
pensamiento, por lo que no se le puede hacer responsable de los efectos que
tengan las decisiones que toma. Debido a esto, desde su diseño hasta su
ejecución, debe estar involucrado un humano que sea moralmente responsable en
cada etapa del proceso. De igual manera es imperativo la creación de limitantes
éticos basados en la Roboética, ya
que estos sistemas son capaces de ejercer una reponsividad moral en donde se
debe asegurar el uso y fin moral de estas herramientas de acuerdo al respeto de
la dignidad y la justicia social.
Una IA nunca podrá considerarse equivalente a un ser
humano mientras los avances tecnológicos no puedan replicar de manera fiel la
conciencia humana, esto significa que además de poder generar pensamientos y
juicios, la IA cuente con emociones, sentimientos y decisiones y sea capaz de
conocer y pensar con ideas abstractas, contando con las propiedades de la
libertad, la voluntad y la creatividad como lo establece la IA fuerte. Los
límites actuales de la IA se encuentran en la tecnología misma como lo define
la IA débil y es la frontera definitiva entre una IA y el ser humano.
Bibliografía Básica:
Castrillón,
O., Rodríguez, M., & Leyton, J. et al. (2008). Ética e inteligencia
artificial ¿Necesidad o urgencia? Memorias, 3. Recuperado de:
http://www.iiis.org/CDs2008/CD2008CSC/CISCI2008/PapersPdf/C054TM.pdf
Cuadra
García, F. (2002). Límites éticos de la inteligencia artificial. Canales de mecánica
y electricidad (Vol. 79, No. 1, pp. 10-15). Asociación de Ingenieros del ICAI.
Hardy,
T; (2001). (IA: Inteligencia Artificial). POLIS, Revista Latinoamericana, 1.
Recuperado de http://www.redalyc.org/articulo.oa?id=30500219
Martínez,
D. (2012). El yo y la máquina: Cerebro, mente e inteligencia artificial.
Ediciones Palabra: Madrid.
Santamaría
Plascencia, A L; (2012). LA RESPONSIVIDAD ÉTICA. En-claves del Pensamiento,
VI() 193-198. Recuperado de http://www.redalyc.org/articulo.oa?id=141125359009.
Vázquez,
S. (2006). Responsabilidad moral. Ética. Capítulo 5.
Bibliografía Complementaria:
Cognitiva.
(s.f.). ¿Qué es IBM Watson?. Recuperado de:
http://cognitiva.la/que-es-ibm-watson/
Drita.
(2016). Watson, el sistema IA de IBM, salva la vida de una mujer con leucemia.
Engadget. Recuperado de:
http://es.engadget.com/2016/08/07/watson-ia-ibm-salva-mujer-leucemia/
Garzón,
N. (2001). Toma de decisiones éticas. Ética y bioética. Recuperado de:
http://www.bdigital.unal.edu.co/783/10/263_-_9_Capi_8.pdf
Malpica,
J.A. (s.f.). Inteligencia Artificial y conciencia. UAH. Recuperado de:
http://www3.uah.es/benito_fraile/ponencias/inteligencia-artificial.pdf
No hay comentarios:
Publicar un comentario