mayo1 , 2025

IA letal sin control: advierten sobre los ‘robots asesinos’ capaces de matar sin intervención humana

También ↓

Liberales de San Lorenzo avanzan en la búsqueda de unidad para las municipales 2026

Dirigentes del Partido Liberal Radical Auténtico (PLRA) de San...

Horóscopo para hoy 1 de mayo de 2025

♈ AriesEl amor anda un poco revuelto, paciencia. Tus...

Horóscopo diario – 30 de abril de 2025

AriesHoy lograrás superar algunas dificultades en el amor. Los...

Compartir

La organización Human Rights Watch lanza una nueva alerta sobre la necesidad urgente de regular el desarrollo de tecnologías armamentísticas autónomas, en las que ya invierten activamente varias potencias mundiales.

El 27 de marzo de 2020, tras más de una década de guerra civil en Libia, el entonces primer ministro Fayez al Sarraj lanzó la Operación Tormenta de Paz con la intención de vencer la resistencia rebelde en la costa del país. La estrategia resultó efectiva: los insurgentes se vieron obligados a replegarse. Según un informe de la ONU, durante ese enfrentamiento se habría utilizado armamento con inteligencia artificial capaz de matar sin que ningún humano diera la orden directa. Es decir, un ‘robot asesino’.

Desde hace años, varios países destinan importantes recursos al desarrollo de armas autónomas con capacidad de tomar decisiones por sí mismas. Estas pueden tomar la forma de drones, tanques, embarcaciones o municiones merodeadoras, que permanecen en espera hasta detectar un objetivo para luego atacarlo de forma autónoma.

A pesar de los reiterados llamados de científicos, activistas y responsables políticos para frenar esta peligrosa carrera armamentista, los avances en materia de regulación han sido prácticamente nulos. Esta falta de control preocupa profundamente a Mary Wareham, directora de Crisis, Conflictos y Armas de Human Rights Watch (HRW), organización que lleva más de una década advirtiendo sobre los riesgos de estas tecnologías.

«Una vez activados, estos sistemas utilizan inteligencia artificial e información de sensores como cámaras, radares o señales térmicas para identificar objetivos. Luego, atacan sin intervención humana. En estos casos, no es una persona, sino una máquina, la que decide cuándo y contra quién se emplea la fuerza», explicó Wareham en declaraciones a ABC.

La experta advierte que delegar decisiones letales en máquinas cruza un límite moral y genera serias preocupaciones legales, éticas y de seguridad. HRW acaba de publicar un nuevo informe, elaborado junto con la Universidad de Harvard, para elevar la conciencia sobre este problema antes de la primera Asamblea General de la ONU dedicada a los sistemas de armas autónomas, que se celebrará los días 12 y 13 de mayo.

El documento de 61 páginas destaca que estas armas no solo representan un riesgo en escenarios bélicos, sino también en tiempos de paz. Su uso podría extenderse al control de protestas pacíficas o formar parte de sistemas de vigilancia masiva que amenacen la privacidad y los derechos fundamentales de la ciudadanía.

La conclusión del informe es contundente: el uso de este armamento puede vulnerar derechos como la vida, la privacidad, la protesta pacífica, así como los principios de dignidad humana y no discriminación. Por ello, HRW solicita a los Estados iniciar negociaciones urgentes para establecer un tratado internacional que regule y prohíba este tipo de tecnologías.

Wareham señala que las grandes potencias militares, precisamente las que más invierten en este tipo de sistemas, son el principal obstáculo para avanzar en su regulación. «Existe muy poca transparencia en el desarrollo de armas autónomas. Sin embargo, entre los países que más invierten se encuentran China, India, Israel, Corea del Sur, Rusia, Turquía y Estados Unidos», afirma.

Durante el conflicto del Alto Karabaj entre Armenia y Azerbaiyán en 2021, también se utilizó armamento autónomo, como las municiones merodeadoras Harop, desarrolladas por Israel Aerospace Industries. Aunque aún no se ha encontrado una solución global, la ONG valora los «importantes avances» en la última década para visibilizar los peligros que representan estas tecnologías.

Desde 2014, la Convención sobre Armas Convencionales (CCW) de Ginebra ha sido el foro de debate sobre los llamados ‘robots asesinos’. Sin embargo, el consenso requerido para adoptar decisiones vinculantes ha impedido cualquier avance concreto. «Un solo país puede vetar cualquier propuesta, incluso si todos los demás están de acuerdo. Grandes potencias militares como India, Israel, Rusia y Estados Unidos han utilizado este mecanismo para bloquear reiteradamente los intentos de regulación», denuncia Wareham.

Human Rights Watch se muestra esperanzada ante la posibilidad de que la próxima reunión de la Asamblea General de la ONU abra nuevas vías para tratar este desafío. «Llevar este debate al seno de la Asamblea permite abordar aspectos que han sido ignorados, como la ética, los derechos humanos, la proliferación, el impacto en la estabilidad internacional y el riesgo de una nueva carrera armamentista», concluye.

Fuente: abc.es

spot_img