miércoles, 8 de mayo de 2019

La ética de la tecnología militar - Ariel Fernando Martínez Noguerón



Las nuevas tecnologías que están surgiendo en la era actual son incontables y de numerosas variaciones, para usos sencillos o para usos múltiples, que están presentes en lugares como el hogar hasta instituciones médicas o de estudio. Pero también hay quienes desarrollan nuevas tecnologías para fines bélicos o que atentan contra la parte humana del planeta. Las ideas de sus creadores pueden expresar que se hace un bien o que es por protección, pero ¿a costa de qué?
Los grandes países, sobre todo las grandes potencias, están en una constante carrera en la mejora de sus nuevas tecnologías de uso bélico, alentando a más países a “apoyarlos” o a “sentirse seguros”. En este ensayo se plantean los dilemas que están presentes alrededor de este tema, las aplicaciones y su condición frente a la población en general, así como las consecuencias que presentan para la vida de las personas.
Dentro de este tema surge la controversia de si se debe usar dicha tecnología o no, pues desde un punto de vista está el hecho de que atenta directamente contra la dignidad y la integridad de las personas, pues desde un principio son creadas con ese fin.
Aun así, es importante resaltar y comprender que la tecnología de uso bélico puede encontrar diferentes caminos que no atenten contra la vida humana y que sean de beneficio para la civilización actual y futura, consiguiendo buenos aspectos en otras áreas.
Sin duda, no todos los fines para los que se crea la tecnología han sido dignos de nuestra existencia, como humanidad (Llano Aristizábal, 2003, 0), en estos casos la tecnología para fines bélicos es una amenaza contra la integridad de las personas, y en varios casos llegan a violar múltiples derechos humanos, tales como la privacidad, libertad o incluso a la vida.
Depende del enfoque o del uso que cada individuo, organización o país que le dé a este tipo de avances científicos, sin embargo, se deben responsabilizar en buena medida por las acciones tomadas. “Mientras la tecnología va avanzando no se sabe si la sociedad la utilizará de forma adecuada y que no atente la vida humana, por eso es importante el desarrollo en la forma de pensar y forma de actuar para el empleo de la tecnología” (Cusco y Quishpe, 2018). Lo preocupante no es el desarrollo de la tecnología sino la utilización de ella, teniendo el poder de afectar ya sea positiva o negativamente a los seres humanos.
Aunque a la hora de afrontar dificultades es habitual que las políticas de defensa de un país promuevan programas de armamento de avanzada tecnología, podemos decir que el desarrollo ético de la humanidad ha sido capaz de crear protocolos para minimizar los efectos negativos de la guerra, además de condiciones que garanticen justicia y paz (Moliner, 2018, 1-4).
“Al igual que ha ocurrido históricamente con otras armas, conforme su uso en el campo de batalla se va extendiendo, surgen consideraciones éticas, legales, y estratégicas sobre su utilización” (González-Regueral, 2017, 661), pero esto desde un principio está mal, pues “Según Kant, los seres humanos nunca deben ser “usados” como medios para un fin.” (Rachels, 2006, 205). Se está explotando la dignidad de las personas con las cuales se están usando este tipo de tecnología, y debido esto se puede evolucionar. Es cierto que de los errores se aprende, pero hay que establecer límites para no dañar a la humanidad de cada persona. Podemos darle un redireccionamiento a fin de tomar en cuenta los conceptos de preservación y seguridad de la dignidad ser humano.
Tomemos como ejemplo a España, sus fuerzas armadas “Son Ejércitos y Armadas que no desean ni promueven las guerras y que, como institución, están comprometidos solidariamente al servicio de la paz, la libertad, la justicia y la democracia, siendo estos valores los que deben guiar la actuación de los militares, junto a la inviolable dignidad de la persona humana” (Moliner, 2018, 4). La defensa de los ideales sin la promoción de violencia es uno de los principales objetivos necesarios para lograr mejorar el pensamiento ético de la sociedad.
Los avances tecnológicos están dando pie a nuevos niveles de autonomía de las máquinas que antes no se pensaban, permitiéndole a la máquina tomar decisiones por sí sola y considerar el grado de hostilidad para posteriormente tomar una acción en base a ésta. Lo que da lugar a nuevas cuestiones éticas relacionadas con la creación del artilugio, las decisiones y acciones que toma, las respectivas responsabilidades, y regulaciones que se tomarán para un enfoque que no afecte de manera drástica los derechos y la dignidad humana. “Mientras más autónomos son los robots, se los considera simples instrumentos en manos del ser humano, la normativa general sobre responsabilidad resulta insuficiente y precisa de nuevas normas que se centren en cómo una máquina puede considerarse parcial o totalmente responsable de sus actos u omisiones” (Cusco y Quishpe, 2018). Esta aseveración está completamente equivocada, pues una máquina puede seguir códigos éticos, pero no puede tomar decisiones basadas en la moral, pues estas últimas son cualidades humanas. “Pero el problema de la responsabilidad moral se halla estrechamente ligado, a su vez, al de la necesidad y libertad humanas, pues sólo si se admite que el agente tiene cierta libertad de opción y decisión cabe hacerle responsable de sus actos.” (Sánchez, 2006, 93). Una máquina nunca llegara a tener ese grado de libertad de toma de decisión. Por lo tanto, la responsabilidad recae sobre la persona que configura u ordena a la máquina tomar cierto curso de acción.
Tomando como ejemplo la invención de una inteligencia artificial que determine si un objetivo es hostil y considerando las características del objetivo en tiempo real; surgen cuestiones éticas, sobre su uso, pues una máquina al ser completamente autónoma elige una respuesta en base al mayor beneficio apelando a los ideales con las que fue diseñada, por parte de su creador, y no las de los implicados ni los hechos o circunstancias que suceden alrededor de ellos. En estos casos no se tomarían en cuenta los derechos humanos de los implicados ya que según la definición: “Los derechos humanos representan la explicación, la concreción, en cada momento histórico, de las exigencias básicas derivadas de la dignidad, la libertad y la desigualdad de las personas y de la solidaridad entre ellas, las más radicalmente vinculadas al sistema de necesidades humanas”. (Fernández, 1997, 679-680). Se estaría violentando los derechos de privacidad, libertad e incluso su derecho a la vida, de una persona, al estar siendo asechado constantemente por una máquina y al ser discriminado como una persona con un grado de hostilidad debido a factores y características superficiales, y que tome acción inmediata para terminar con una posible y/o garantizada amenaza.
Los drones son una especie de tecnología semiautónoma, pues necesitan de un operador que indique cual es el objetivo. “Diversas organizaciones están reclamando la atención de la opinión pública sobre estas acciones de drones armados planteando una campaña para detener el empleo de lo que denominan «robots asesinos». El centro del debate es su supuesto uso indiscriminado o las bajas de civiles que producen estas intervenciones” (González-Regueral, 2017, 661-662).
Se argumenta que, así como los pilotos de avión en combate lanzan sus bombas a veces sin percibir el resultado y las consecuencias; los responsables de dirigir un dron y lanzar un misil viven en directo y con detalle los resultados a través de la pantalla. “La utilización de drones elimina el riesgo de víctimas entre los pilotos propios, pero plantea dudas ante el riesgo de aumentar las víctimas colaterales no combatientes, a las que tan sensible resulta la ética militar y que, según las leyes internacionales de la guerra, son siempre víctimas inocentes.” (Moliner, 2018, 9-10).
Debido a las acciones que ha tomado Estados Unidos en territorios ajenos como Israel, el debate de las repercusiones que tiene este tipo de tecnología bélica han abierto las puertas a los siguientes dilemas: cómo se protege a la población civil, y cuándo y con qué límites debe emplearse la fuerza militar (González-Regueral, 2017, 662). En otras palabras, cómo se garantiza el bienestar imparcial, y cuáles son las condiciones y cuáles serían las propuestas de uso medido y responsable.
Habiendo expuesto los problemas que conlleva el desarrollo y el uso de las nuevas tecnologías con fines bélicos, podemos rescatar algunos puntos positivos para el continuo avance de este tipo de herramientas. Ya que algunos de los grandes descubrimientos a lo largo de la historia y que ahora son de uso cotidiano o han mejorado nuestra calidad de vida, fueron desarrollados para fines de la guerra. “Al decidir qué hacer, debemos, por tanto, preguntar qué curso de conducta promovería la mayor felicidad para todos aquellos que serán afectados. La moral requiere que hagamos lo que sea lo mejor desde ese punto de vista.” (Rachels, 2006, 150). A varios de los artilugios de uso bélico del pasado se les dio un nuevo propósito impulsando así el bienestar de la sociedad, por ejemplo: la dinamita, el ultrasonido, el internet, computadoras, comida enlatada, lentes de sol, incluso la realidad virtual utilizada para simular combates ahora puede ser usada para fines terapéuticos y recreativos.
“Todo artilugio inventado por un hombre, gracias a su ingenio, tiene que ser seguro, porque, de lo contrario, se pondría en juego la propia vida humana” (González, 2015, 710). Según los nuevos pensamientos éticos, la tecnología de uso bélico debe de estar más encausada a mantener la seguridad y preservar de la vida humana y sus derechos. “Precisamente la utilización de los robots surge del deseo de evitar pérdidas humanas…” (Moliner, 2018, 10).
Todo tipo de tecnología, incluso la que es desarrollada con fines bélicos, causan derivados que pueden llevar al bienestar de la humanidad a un nuevo nivel. La idea de estar en constante guerra hace que las naciones tengan como objetivo despuntar y alcanzar nuevas cimas en todo aspecto, en nuestro caso, tecnológico.
Aun cuando distintas organizaciones han expuesto su preocupación por el mal uso de los avances tecnológicos dudando de los códigos éticos que estas industrias podrían tener mencionaremos a Elon Musk, presidente de Tesla, “quien ha lanzado una iniciativa cuyo objetivo es que la inteligencia artificial tenga siempre como finalidad el ser beneficiosa para la humanidad” (Moliner, 2018, 11). Tomando en consideración esto los ingenieros en robótica e inteligencia artificial deben ser responsables al momento de crear este tipo de máquinas procurando no afectar la vida humana, sino enfocarse al beneficio social, por mencionar algo, utilizar estas herramientas con fines médicos.
“Es por esto que los ingenieros dedicados al estudio de la robótica y la inteligencia artificial deben tener mucha responsabilidad al crear este tipo de máquinas y no desarrollar robots que afecten la integridad de la vida humana, sino más bien en el beneficio de la sociedad por ejemplo en el cuidado de ancianos, para uso médico” (Cusco y Quishpe, 2018). Ayudar en la creación de nuevas tecnologías que comprendan la importancia de otras áreas, para acabar con los problemas donde la humanidad es más vulnerable, como por ejemplo, el cambio climático, los desastres naturales y las consecuencias de estos, personas atrapadas o heridas de gravedad, el hambre, reconstrucción de viviendas, crear tecnología que sea de pronta respuesta a estos problemas, basándose en la preservación de la vida humana y su desarrollo posterior, apelando al bienestar de cada persona en el planeta.









Referencias:
González, F. (2015). La ética de los robots. En C. Ortega, El mejoramiento
humano: avances, investigaciones y reflexiones éticas y políticas (pp. 704-718). Granada: Editorial Comares
González-Regueral, C. (2017). Robótica y resiliencia. bie3: Boletín I.E.E.E, (7),
658-669.Disponible en https://dialnet.unirioja.es/servlet/articulo?codigo=6231851
Fernández, M. (1997). Derechos humanos: ¿Yuxtaposición o integración?. Anuario
de filosofía del derecho XIV. Pg 679-701.
Jhon Carlos Cusco Sánchez y Jeverson Santiago Quishpe Gaibor (2018): “Ética
aplicada a la robótica”, Revista Caribeña de Ciencias Sociales. En línea: https://www.eumed.net/rev/caribe/2018/03/etica-robotica.html//hdl.handle.net/20.500.11763/caribe1803etica-robotica
Llano Aristizábal, S. (2003). Nuevas tecnologías y dilemas éticos. Palabra Clave,
(9), 0.
Moliner, J. (2018). Algunos problemas éticos de las tecnologías militares
emergentes. bie3: Boletín I.E.E.E, (9), 522-541. Disponible en https://dialnet.unirioja.es/servlet/articulo?codigo=6467952
Rachels, J. (2016). Introducción a la filosofía moral. México: Fondo de cultura
económica.
Sánchez, A. (1969). ÉTICA. México: Grijalbo.

No hay comentarios:

Publicar un comentario