Juan Jared Abud Triana
@a01228819
Introduccion
El
objetivo de este ensayo es presentar y analizar algunos problemas
éticos derivados de una rama de la ciencia y tecnología que son de
suma importancia en la actualidad; el desarrollo de inteligencia
artificial y su relación con el hombre contemporáneo ante un mundo
competente en ámbitos laborales y de derechos humanos, así como
mencionar algunas consecuencias y soluciones ante este dilema.
A
lo largo del Siglo XX y en la primera década del XXI, el desarrollo
de las tecnologías para la beneficencia de la vida humana ha
evolucionado de una manera exponencial, sin embargo, en los últimos
años se ha experimentado un estancamiento en la producción de
transistores cada vez más pequeños, dando muerte a la reconocida
Ley de Moore, “La continua agregación de más transistores de
silicón a los microprocesadores, conocida como la ley de Moore, ha
sido la materia prima de la exuberante innovación en computadoras,
ahora el tiempo excesivo en lograr esto ha roto la ley.” (Simonite,
2016). A pesar de esto, la potencia actual de los procesadores ha
sido capaz de avanzar en el desarrollo de máquinas o softwares
inteligentes, conocida como inteligencia artificial o por su
abreviación en inglés AI (Artificial Intelligence). AI es la
ciencia e ingeniería de engendrar maquinas inteligentes,
especialmente programas de computadora, y es relacionada a la tarea
de usar computadoras para entender el pensamiento humano, pero no
tiene por qué confinarse a métodos que son biológicamente
observables. (McCarthy, 2007).
Este
tema contiene información relevante que atenta contra la dignidad
humana en ciertas formas, demostrando una falta de oportunidades,
trato no igualitario, la incorrecta distribución de bienes y
servicios e inclusive este asunto abarca indagación que puede
infringir la seguridad de las personas. Según Rachels, la dignidad
es un valor intrínseco que los humanos poseen porque son agentes
racionales (seres capaces de tomar sus propias decisiones, establecer
metas y conductas), esto los hace valiosos sobre cualquier precio,
esto es lo que diferencia a los humanos de los demás seres en este
planeta. (Rachels, p.205, 2006). En cuanto al desarrollo social, el
tema de este contenido va de la mano con el progreso social y también
capital de la sociedad, generando mayoritariamente más cambios
positivos que negativos en relación al proceso de lograr una mejor
calidad de vida al satisfacer las necesidades del ser humano y lograr
que su vida sea menos complicada.
Palaras
Clave
Inteligencia
artificial, derechos humanos, dignidad, desarrollo social, bienestar
de las personas, competencia laboral, beneficios y amenazas del tema,
esclavitud.
Ética
Aplicada En La Inteligencia Artificial
La
AI es tan inteligente y poderoso como un cerebro humano, sin embargo,
esta no comparte ciertas características con los humanos, por
ejemplo; la AI no es capaz de experimentar cansancio, aburrimiento,
sentimientos que perjudiquen o afecten la toma de decisiones,
vulnerabilidad a problemas de salud y cometer una diversa cantidad de
fraudes, todas estas particularidades mencionadas hacen de la AI un
candidato ideal para consumar deberes del ser humano dentro de la
ciudadanía a una velocidad mucho más rápida, sin embargo, el
problema ético con el desarrollo de competencia laboral sería ¿Qué
pasa con la dignidad de las personas al ser comparadas e incluso
sustituidas en puestos fundamentales que ayudan a preservar el orden
dentro la sociedad a la que pertenecen? (Kumar, Kharkwal, Kohli,
Choudary, 2016, p.112). Estas personas también deberían de salir
beneficiadas en lugar de perjudicadas, ya que los seres racionales
deben ser estimados siempre como fines y nunca como medios (Rachels,
p.208, 2006). Sin embargo, en este problema también entra la teoría
ética del utilitarismo, esta teoría menciona que las acciones están
justificadas como correctas o incorrectas en relación a la virtud de
sus consecuencias, la cantidad de felicidad producida debe ser mayor
a la de infelicidad y que la felicidad de cualquier individuo cuenta
por igual (Rachels, p.164, 2006). Es por esto que la pérdida de
trabajos como resultado está justificada, debido a que la reducción
de dinero destinado al salario de los empleados hará de los
productos, bienes y servicios más accesible para el público en
general, el cual genera una mayor cantidad de bienestar sobre
malestar en la sociedad.
Según
una publicación de The
Washington Post,
“La creciente popularidad de la inteligencia artificial
probablemente ocasionará millones de pérdidas de trabajos,
especialmente a trabajadores menos educados, y podría exacerbar la
división económica entre clases socioeconómicas de los Estados
Unidos, según un informe de la Casa Blanca.” (Overly, 2016). No
obstante, el uso de esta misma tecnología es esencial para favorecer
el incremento de productividad de países, esto puede elevar los
salarios promedios y reducir las horas laborales, es por eso que se
necesita implementar más el uso de la AI. (Overly, 2016). Tomando en
consideración lo anterior, se puede deducir que el uso de AI en
puestos laborales únicamente afectará la dignidad, felicidad y
situación económica de un porcentaje de la población, aquella que
esté menos preparada en niveles de educación y oportunidades. La
idea de la felicidad como el bien último se le conoce como hedonismo
y este va de la mano con el utilitarismo porque al mismo tiempo se
cataloga la infelicidad como el mal último. (Rachels, p.166, 2006).
Sin
duda esto presenta una intimidación hacia el bienestar de las
personas, pero no es el único tipo de amenaza que pueden brindar, ya
que el comportamiento moral que se le da a la máquina puede resultar
peligroso, aunque esté programada para realizar muchos propósitos,
por ejemplo; LAWS (Lethal Autonomous Weapons Systems), que son
sistemas que garantizan la seguridad y bienestar de las personas, sin
embargo, estas pueden salir de control si se emplean con fines
terroristas que violarían los principios fundamentales de la
dignidad humana al imponerse en contra de las personas. “Si la
inteligencia artificial es peligrosa y si sus beneficios superan
ampliamente su potencial de ocasionar consecuencias muy graves para
toda la humanidad, ya no es una pregunta de probabilidad, sino de
cuánto tiempo falta para que suceda.” (Adams, 2006). ¿Sería
ético la producción de máquinas autónomas con la tarea de
proteger y garantizar la seguridad de las personas, pero que al mismo
tiempo pueden ser capaces de realizar totalmente lo contrario? Para
encontrar una solución a esta cuestión es conveniente hacer mención
de la imparcialidad, esta idea establece a que los intereses de todos
son igual de importantes, debido a que no hay privilegios y es por
esto que esta idea que se encuentra en cualquier teoría ética
relacionada a la moral; porque se encarga de buscar el bienestar para
todos. (Rachels, p.35, 2006)
Claro
está que la inteligencia artificial cada vez está adquiriendo más
características del ser humano, pero si se siguen ofreciendo estas
particularidades, hasta igualar totalmente los niveles humanos al
momento de tomar decisiones éticas, la AI, al igual que los humanos,
podrían llegar a cometer acciones inmorales como lo ha hecho el
hombre a lo largo de la historia. “Si diseñamos nuestras máquinas
para que coincidan con los niveles humanos de toma de decisiones
éticas, tales máquinas procederían a tomar algunas acciones
inmorales (ya que los seres humanos hemos tenemos esa capacidad, y en
ocasiones se realizan acciones inmorales).” (Mark, Barham, Beltaif,
Kador, Akhter, 2016, p.648). Estas decisiones inmorales serían
consecuencia de la capacidad de tomar decisiones éticas al igual que
el hombre, por lo tanto, si estos son capaces de ejercer decisiones
propias ¿También deberían de poseer derechos y obligaciones al
igual que el ser humano, sería ético otorgar estas distinciones a
seres pensantes, pero no “vivos”, estamos denigrando a la
dignidad humana al otorgar sus privilegios a agentes artificiales?
“¿En qué momento una simulación de la vida equivale a la vida
que se originó por medio natural? Y si éstas equivalen a la vida
natural. ¿Se deben de otorgar los mismos derechos, responsabilidades
y privilegios que a los humanos? “(Mark, Barham, Beltaif, Kaador,
Akhter, 2016, p.648). Los seres racionales poseen obligaciones
morales, por lo que deben de actuar con imparcialidad sobre sus
propios intereses y seguir de leyes universales (Rachels, p.193,
2006), por lo que si la AI entra catalogada como un ser racional debe
de contar con obligaciones al igual que los humanos, pero al mismo
tiempo cuenta con los derechos que estos brindan, como lo es el
bienestar brindado por la misma imparcialidad.
A
lo largo de la historia, se han presenciado distintas maneras de
esclavitud, las cuales el hombre a empleado para su propio bien de
una manera egoísta, es solo cuestión de tiempo para que la AI sea
la versión moderna de esclavitud (uno de los peores casos
antiéticos) en el mundo. “Si las creaciones que hemos construido
para realizar nuestra licitación adquieren conciencia algún día.
¿Será moralmente correcto mantenerlas esclavizadas?” (Pettit,
2013). ¿No sería denigrante, y bajo para la humanidad seguir usando
a esclavos, aunque estos fueran seres artificiales? La visión de la
esclavitud como un acto moral o inmoral está ligado directamente al
relativismo cultural, esta es una teoría que explica la naturaleza
de la moral, estableciendo que diferentes culturas alrededor del
mundo tienen distintos códigos morales, destacando que en el mundo
no existen costumbres correctas o incorrectas, ya que cada quién
tiene una cultura con un criterio diferente (Rachels, p.41, 2006), es
por eso que a lo largo de la historia en ciertas regiones del mundo,
como países que hasta el día de hoy son potencias globales, la
esclavitud no era catalogada como un acto inhumano e incluso inmoral,
en cambio, la práctica de esclavitud fue de gran importancia para la
economía de estos países, en donde (haciendo otra vez referencia al
utilitarismo) un mayor número de personas se benefició en
comparación de la fracción perjudicada.
Consideraciones
Finales
En
la extensión de este ensayo, se han propuesto unos cuantos problemas
éticos que existen en el constante desarrollo de la inteligencia
artificial, y todo esto se puede resumir en un problema ético
general, ¿Sería ético crear inteligencia artificial o el no
crearla? Ya que la AI presenta diversa cantidad de beneficios y ha
hecho de nuestras vidas más fáciles, pero también se presentan
todas las problemáticas mencionadas anteriormente, ¿Acaso detener
el progreso de la AI sería algo ético si esta es capaz de erradicar
diversos males en el mundo? “Enfermedad, pobreza, destrucción
ambiental, sufrimiento innecesario de todo tipo: estas son las cosas
a las que una súper inteligencia equipada con nanotecnología
avanzada sería capaz de eliminar” (Bostrom, s.f.). La teoría
aristotélica menciona que el último fin de los seres humanos es ser
felices, y parte importante de eso es desarrollarse y superarse
constantemente en su uso de inteligencia, algo que se ha presenciado
a lo largo de la historia ayudando a evitar nuestra extinción y que
nos ha hecho los seres dominantes sobre el planeta Tierra, es por eso
que el progreso de tecnologías que ayuden al ser humano a sobrevivir
o a hacer de su vida más sencilla es algo inevitable y necesario,
por lo que requeriremos de la AI para garantizar la beneficencia de
un gran número de personas, a pesar de que está cause sufrimiento
hacia una menor cantidad de personas, he aquí cuando entra la teoría
del utilitarismo, sin embargo no estamos tomando en cuenta a esa
cantidad de personas que se está viendo afectada, por lo que se
necesita razón prudencial y proteger a estos seres con dignidad,
porque al igual que todas las personas son capaces de ejercer sus
derechos humanos y expresar sus inconformidades, según manda la
tradición kantiana y la tradición dialógico, sin embargo, la
teoría utilitarista está por encima de la teoría kantiana, porque
la felicidad de la mayoría es más importante que la felicidad de
unos cuantos.
En
cuanto a mi postura, considero que es mejor el desarrollo de nuevas
tecnologías como el de la AI, a pesar de las diferentes opiniones y
decepciones que estos puedan experimentar, habrá fracasos en los que
la gente se vea afectada como el caso reciente en el que una persona
murió por dejar un carro autónomo en piloto automático. “La
primera muerte causada por un automóvil autodidacta fue relevada por
Tesla Motors el jueves, un desarrollo que está seguro de hacer dudar
a los consumidores en la confianza de vehículos autónomos “(Yadron,
2006). Pero sin duda, como el hombre ha experimentado en su trayecto,
tiene que haber sacrificios no deseados pero necesarios para la misma
evolución de medios que hacen del hombre cada vez más capaz de
realizar actividades y de llegar más lejos. Pero si nos negamos a
aceptar estas consecuencias y a detenernos, el hombre experimentará
un estancamiento en su camino progresivo de ser pensante, y no será
capaz de responder de manera correcta ante problemas que se presentan
como lo es hoy en día que son enfermedades, problemas de
contaminación, falta de trabajadores capacitados, etc.
Este
es una problemática que no debemos ignorar, no obstante, estos
escenarios aún no hayan ocurrido en su totalidad, no podemos
descartar la probabilidad de que en un futuro no lejano sucedan y
lleguemos a reaccionar en un momento inoportuno, por lo que debemos
estar preparados al tener soluciones éticas que defiendan la
dignidad humana y el desarrollo social, tales como leyes que dividan
y reconozcan los derechos de las personas ante agentes artificiales,
para así garantizar la seguridad y privilegios de las personas ante
la AI, y que estos no sustituyan el lugar de las personas en
ocupaciones que estas sean totalmente capaces de realizar, ni se
llegue a experimentar una exclusión social e injusticia.
Referencias
Básicas:
Bostrom,
N. (s.f.) Ethical Issues in Advances Artificial Intelligence. Oxford
University Philosophy Faculty.
Recuperado de:
https://pdfs.semanticscholar.org/00d3/85a359eda4845dab37efc7c12a9c0987e66b.pdf
Choudhary,
S., Kharkwal, N. Kohli, R. Kumar, N. (2016). Ethical Aspects and
Future of Artificial Intelligence. IEEE
Xplore Digital Library.
Recuperado de:
http://0-ieeexplore.ieee.org.millenium.itesm.mx/document/7542339/
McCarthy,
J. (2007) WHAT IS ARTIFICIAL INTELLIGENCE? Stanford University
Computer Science Department. Recuperado
de: http://www-formal.stanford.edu/jmc/whatisai/node1.html
Meek,
T. Barham, H. Beltaif, N. Kaadoor, A.Akhter, T. (2016). Managing the
Ethical and Risk Implications of Rapid Advances in Artificial
Intelligence: A Literature Review. IEEE
Xplore Digital library.
Recuperado de:
http://0-ieeexplore.ieee.org.millenium.itesm.mx/document/7806752/
Overly,
S. (20 de diciembre del 2016) Artificial Intelligence could cost
millions of Jobs. The White House says we need more of it. The
Washington Post. Recuperado
de:
https://www.washingtonpost.com/news/innovations/wp/2016/12/20/ai-could-cost-millions-of-jobs-the-white-house-says-we-need-more-of-it/?utm_term=.10242d9f22c1
Pettit,
C. (2013) Slaves and Robots. The
Good Men Project.
Recuperado de:
https://goodmenproject.com/ethics-values/the-good-life-slaves-and-robots/
Simonite,
T. (2016) Moore´s Law Is Dead. Now What? MIT Technology Review.
Recuperado
de:
https://www.technologyreview.com/s/601441/moores-law-is-dead-now-what/
Yadron,
D. (2016) Tesla driver diez in first fatal crash while using
autopilot mode. The
Guardian. Recuperado de:
https://www.theguardian.com/technology/2016/jun/30/tesla-autopilot-death-self-driving-car-elon-musk
Complementarias:
Adams,
R. (2016) Is Artificial Intelligence Dangerous? Forbes.
Recuperado de:
http://www.forbes.com/sites/robertadams/2016/03/25/is-artificial-intelligence-dangerous/#35c251601d01
Rachels,
J. (2006) Introducción
a la filosofía
moral. D.F.:
FONDO DE CULTURA ECONÓMICA
No hay comentarios:
Publicar un comentario