Las nuevas
tecnologías que están surgiendo en la era actual son incontables y de numerosas
variaciones, para usos sencillos o para usos múltiples, que están presentes en lugares
como el hogar hasta instituciones médicas o de estudio. Pero también hay
quienes desarrollan nuevas tecnologías para fines bélicos o que atentan contra
la parte humana del planeta. Las ideas de sus creadores pueden expresar que se
hace un bien o que es por protección, pero ¿a costa de qué?
Los grandes países, sobre todo las grandes
potencias, están en una constante carrera en la mejora de sus nuevas
tecnologías de uso bélico, alentando a más países a “apoyarlos” o a “sentirse
seguros”. En este ensayo se plantean los dilemas que están presentes alrededor
de este tema, las aplicaciones y su condición frente a la población en general,
así como las consecuencias que presentan para la vida de las personas.
Dentro de este tema surge la controversia de si
se debe usar dicha tecnología o no, pues desde un punto de vista está el hecho
de que atenta directamente contra la dignidad y la integridad de las personas,
pues desde un principio son creadas con ese fin.
Aun así, es importante resaltar y comprender que
la tecnología de uso bélico puede encontrar diferentes caminos que no atenten
contra la vida humana y que sean de beneficio para la civilización actual y
futura, consiguiendo buenos aspectos en otras áreas.
Sin duda, no todos los fines para los que se
crea la tecnología han sido dignos de nuestra existencia, como humanidad (Llano
Aristizábal, 2003, 0), en estos casos la tecnología para fines bélicos es una
amenaza contra la integridad de las personas, y en varios casos llegan a violar
múltiples derechos humanos, tales como la privacidad, libertad o incluso a la
vida.
Depende del enfoque o del uso que cada
individuo, organización o país que le dé a este tipo de avances científicos,
sin embargo, se deben responsabilizar en buena medida por las acciones tomadas.
“Mientras la tecnología va avanzando no se sabe si la sociedad la utilizará de
forma adecuada y que no atente la vida humana, por eso es importante el
desarrollo en la forma de pensar y forma de actuar para el empleo de la
tecnología” (Cusco y Quishpe, 2018). Lo preocupante no es el desarrollo de la
tecnología sino la utilización de ella, teniendo el poder de afectar ya sea
positiva o negativamente a los seres humanos.
Aunque a la hora de afrontar dificultades es
habitual que las políticas de defensa de un país promuevan programas de
armamento de avanzada tecnología, podemos decir que el desarrollo ético de la
humanidad ha sido capaz de crear protocolos para minimizar los efectos
negativos de la guerra, además de condiciones que garanticen justicia y paz (Moliner,
2018, 1-4).
“Al igual que ha ocurrido históricamente con
otras armas, conforme su uso en el campo de batalla se va extendiendo, surgen
consideraciones éticas, legales, y estratégicas sobre su utilización”
(González-Regueral, 2017, 661), pero esto desde un principio está mal, pues “Según
Kant, los seres humanos nunca deben ser “usados” como medios para un fin.”
(Rachels, 2006, 205). Se está explotando la dignidad de las personas con las
cuales se están usando este tipo de tecnología, y debido esto se puede evolucionar.
Es cierto que de los errores se aprende, pero hay que establecer límites para no
dañar a la humanidad de cada persona. Podemos darle un redireccionamiento a fin
de tomar en cuenta los conceptos de preservación y seguridad de la dignidad ser
humano.
Tomemos como ejemplo a España, sus fuerzas
armadas “Son Ejércitos y Armadas que no desean ni promueven las guerras y que,
como institución, están comprometidos solidariamente al servicio de la paz, la
libertad, la justicia y la democracia, siendo estos valores los que deben guiar
la actuación de los militares, junto a la inviolable dignidad de la persona
humana” (Moliner, 2018, 4). La defensa de los ideales sin la promoción de violencia
es uno de los principales objetivos necesarios para lograr mejorar el pensamiento
ético de la sociedad.
Los avances tecnológicos están dando pie a
nuevos niveles de autonomía de las máquinas que antes no se pensaban,
permitiéndole a la máquina tomar decisiones por sí sola y considerar el grado
de hostilidad para posteriormente tomar una acción en base a ésta. Lo que da
lugar a nuevas cuestiones éticas relacionadas con la creación del artilugio,
las decisiones y acciones que toma, las respectivas responsabilidades, y
regulaciones que se tomarán para un enfoque que no afecte de manera drástica
los derechos y la dignidad humana. “Mientras más autónomos son los robots, se
los considera simples instrumentos en manos del ser humano, la normativa
general sobre responsabilidad resulta insuficiente y precisa de nuevas normas
que se centren en cómo una máquina puede considerarse parcial o totalmente
responsable de sus actos u omisiones” (Cusco y Quishpe, 2018). Esta aseveración
está completamente equivocada, pues una máquina puede seguir códigos éticos,
pero no puede tomar decisiones basadas en la moral, pues estas últimas son
cualidades humanas. “Pero el problema de la responsabilidad moral se halla
estrechamente ligado, a su vez, al de la necesidad y libertad humanas, pues
sólo si se admite que el agente tiene cierta libertad de opción y decisión cabe
hacerle responsable de sus actos.” (Sánchez, 2006, 93). Una máquina nunca
llegara a tener ese grado de libertad de toma de decisión. Por lo tanto, la
responsabilidad recae sobre la persona que configura u ordena a la máquina
tomar cierto curso de acción.
Tomando como ejemplo la invención de una
inteligencia artificial que determine si un objetivo es hostil y considerando
las características del objetivo en tiempo real; surgen cuestiones éticas,
sobre su uso, pues una máquina al ser completamente autónoma elige una
respuesta en base al mayor beneficio apelando a los ideales con las que fue
diseñada, por parte de su creador, y no las de los implicados ni los hechos o
circunstancias que suceden alrededor de ellos. En estos casos no se tomarían en
cuenta los derechos humanos de los implicados ya que según la definición: “Los
derechos humanos representan la explicación, la concreción, en cada momento
histórico, de las exigencias básicas derivadas de la dignidad, la libertad y la
desigualdad de las personas y de la solidaridad entre ellas, las más
radicalmente vinculadas al sistema de necesidades humanas”. (Fernández, 1997,
679-680). Se estaría violentando los derechos de privacidad, libertad e incluso
su derecho a la vida, de una persona, al estar siendo asechado constantemente
por una máquina y al ser discriminado como una persona con un grado de
hostilidad debido a factores y características superficiales, y que tome acción
inmediata para terminar con una posible y/o garantizada amenaza.
Los drones son una especie de tecnología
semiautónoma, pues necesitan de un operador que indique cual es el objetivo.
“Diversas organizaciones están reclamando la atención de la opinión pública
sobre estas acciones de drones armados planteando una campaña para detener el
empleo de lo que denominan «robots asesinos». El centro del debate es su
supuesto uso indiscriminado o las bajas de civiles que producen estas
intervenciones” (González-Regueral, 2017, 661-662).
Se argumenta que, así como los pilotos de avión
en combate lanzan sus bombas a veces sin percibir el resultado y las
consecuencias; los responsables de dirigir un dron y lanzar un misil viven en
directo y con detalle los resultados a través de la pantalla. “La utilización
de drones elimina el riesgo de víctimas entre los pilotos propios, pero plantea
dudas ante el riesgo de aumentar las víctimas colaterales no combatientes, a
las que tan sensible resulta la ética militar y que, según las leyes
internacionales de la guerra, son siempre víctimas inocentes.” (Moliner, 2018,
9-10).
Debido a las acciones que ha tomado Estados
Unidos en territorios ajenos como Israel, el debate de las repercusiones que
tiene este tipo de tecnología bélica han abierto las puertas a los siguientes
dilemas: cómo se protege a la población civil, y cuándo y con qué límites debe
emplearse la fuerza militar (González-Regueral, 2017, 662). En otras palabras,
cómo se garantiza el bienestar imparcial, y cuáles son las condiciones y cuáles
serían las propuestas de uso medido y responsable.
Habiendo expuesto los problemas que conlleva el
desarrollo y el uso de las nuevas tecnologías con fines bélicos, podemos
rescatar algunos puntos positivos para el continuo avance de este tipo de
herramientas. Ya que algunos de los grandes descubrimientos a lo largo de la
historia y que ahora son de uso cotidiano o han mejorado nuestra calidad de
vida, fueron desarrollados para fines de la guerra. “Al decidir qué hacer,
debemos, por tanto, preguntar qué curso de conducta promovería la mayor
felicidad para todos aquellos que serán afectados. La moral requiere que
hagamos lo que sea lo mejor desde ese punto de vista.” (Rachels, 2006, 150). A varios
de los artilugios de uso bélico del pasado se les dio un nuevo propósito
impulsando así el bienestar de la sociedad, por ejemplo: la dinamita, el
ultrasonido, el internet, computadoras, comida enlatada, lentes de sol, incluso
la realidad virtual utilizada para simular combates ahora puede ser usada para
fines terapéuticos y recreativos.
“Todo artilugio inventado por un hombre, gracias
a su ingenio, tiene que ser seguro, porque, de lo contrario, se pondría en
juego la propia vida humana” (González, 2015, 710). Según los nuevos
pensamientos éticos, la tecnología de uso bélico debe de estar más encausada a
mantener la seguridad y preservar de la vida humana y sus derechos.
“Precisamente la utilización de los robots surge del deseo de evitar pérdidas
humanas…” (Moliner, 2018, 10).
Todo tipo de tecnología, incluso la que es
desarrollada con fines bélicos, causan derivados que pueden llevar al bienestar
de la humanidad a un nuevo nivel. La idea de estar en constante guerra hace que
las naciones tengan como objetivo despuntar y alcanzar nuevas cimas en todo
aspecto, en nuestro caso, tecnológico.
Aun cuando distintas organizaciones han expuesto
su preocupación por el mal uso de los avances tecnológicos dudando de los
códigos éticos que estas industrias podrían tener mencionaremos a Elon Musk,
presidente de Tesla, “quien ha lanzado una iniciativa cuyo objetivo es que la
inteligencia artificial tenga siempre como finalidad el ser beneficiosa para la
humanidad” (Moliner, 2018, 11). Tomando en consideración esto los ingenieros en
robótica e inteligencia artificial deben ser responsables al momento de crear
este tipo de máquinas procurando no afectar la vida humana, sino enfocarse al
beneficio social, por mencionar algo, utilizar estas herramientas con fines
médicos.
“Es por esto que los ingenieros dedicados al
estudio de la robótica y la inteligencia artificial deben tener mucha
responsabilidad al crear este tipo de máquinas y no desarrollar robots que
afecten la integridad de la vida humana, sino más bien en el beneficio de la
sociedad por ejemplo en el cuidado de ancianos, para uso médico” (Cusco y
Quishpe, 2018). Ayudar en la creación de nuevas tecnologías que comprendan la
importancia de otras áreas, para acabar con los problemas donde la humanidad es
más vulnerable, como por ejemplo, el cambio climático, los desastres naturales
y las consecuencias de estos, personas atrapadas o heridas de gravedad, el
hambre, reconstrucción de viviendas, crear tecnología que sea de pronta respuesta
a estos problemas, basándose en la preservación de la vida humana y su
desarrollo posterior, apelando al bienestar de cada persona en el planeta.
Referencias:
González, F. (2015). La ética de los robots. En C. Ortega, El
mejoramiento
humano: avances, investigaciones y reflexiones
éticas y políticas (pp. 704-718). Granada: Editorial Comares
González-Regueral, C. (2017). Robótica y resiliencia. bie3: Boletín
I.E.E.E, (7),
658-669.Disponible en
https://dialnet.unirioja.es/servlet/articulo?codigo=6231851
Fernández, M.
(1997). Derechos humanos: ¿Yuxtaposición o integración?. Anuario
de filosofía del derecho XIV. Pg 679-701.
Jhon Carlos Cusco Sánchez y Jeverson Santiago Quishpe Gaibor (2018):
“Ética
aplicada a la robótica”, Revista Caribeña de
Ciencias Sociales. En línea:
https://www.eumed.net/rev/caribe/2018/03/etica-robotica.html//hdl.handle.net/20.500.11763/caribe1803etica-robotica
Llano Aristizábal, S. (2003). Nuevas tecnologías y dilemas éticos.
Palabra Clave,
(9), 0.
Moliner, J. (2018). Algunos problemas éticos de las tecnologías
militares
emergentes. bie3: Boletín I.E.E.E, (9), 522-541.
Disponible en https://dialnet.unirioja.es/servlet/articulo?codigo=6467952
Rachels, J.
(2016). Introducción a la filosofía moral. México: Fondo de cultura
económica.
Sánchez, A. (1969). ÉTICA.
México: Grijalbo.
No hay comentarios:
Publicar un comentario