La niebla de la guerra es espesa en Gaza. La invasión terrestre está cobrando fuerza. y los bombardeos aéreos continuaron ferozmente. el martes Misiles atacan el campo de refugiados de Jabaliya. donde las Fuerzas de Defensa de Israel dijeron que estaba estacionado un alto líder de Hamas. Mató a decenas de civiles. La discusión sobre la crisis tiene lugar en línea y en el mundo. Pero para todo discurso Queda una pregunta sobre la que me pregunto. No ampliamente considerado: ¿Hasta qué punto Israel depende de la inteligencia artificial y los sistemas de armas autónomos para seleccionar y atacar objetivos? Sólo en la primera semana del ataque La Fuerza Aérea israelí dice que ha lanzado 6.000 bombas en toda Gaza. El territorio tiene 140 millas cuadradas (una décima parte del tamaño del estado más pequeño de Estados Unidos, Rhode Island) y es uno de los lugares más densamente poblados del mundo. Desde entonces ha habido miles de bombardeos. Israel comanda el ejército más poderoso y tecnológicamente avanzado de Medio Oriente. Meses antes del horrible ataque de Hamas el 1 de octubre, el 7 de septiembre, las FDI anunciaron que estaban integrando IA en operaciones mortales, como informó Bloomberg el 15 de julio. Este año, las FDI comenzaron a «usar inteligencia artificial para seleccionar objetivos para ataques aéreos». y organizar la logística en tiempos de guerra”. Un funcionario israelí dijo en ese momento que las FDI utilizaban sistemas de recomendación de IA para seleccionar objetivos para los ataques aéreos. bombardeo y uno que se utilizaría para organizar un ataque de seguimiento rápido. Las FDI llaman a este segundo sistema Fire Factory y, según Bloomberg, «utiliza información sobre objetivos aprobados militarmente. Para calcular la cantidad de armas y equipos Priorice y asigne miles de objetivos a aviones y drones. y proponer un cronograma» en respuesta a Solicite comentarios Portavoz de las FDI Desarrollado para discutir el uso militar de la IA en el país, en un año en el que la IA ha sido noticia en todo el mundo. Este elemento de conflicto ha sido examinado con poca atención. Dadas las muchas cuestiones prácticas y éticas que aún rodean a esta tecnología, se debe presionar a Israel sobre cómo implementar la IA: «Los sistemas de IA tienen fama de ser poco fiables y frágiles, especialmente cuando se colocan en situaciones diferentes a las de sus datos de entrenamiento», dijo Paul Scharre, vicepresidente del Centro para la Seguridad Estadounidense Moderna y autor de «Four Battlegrounds: Power in the Age of Artificial Intelligence». Scharre dijo que no estaba familiarizado con los detalles del sistema local. Las FDI pueden usarlo, pero la IA y La automatización que ayuda a apuntar a los circuitos también podría usarse en situaciones como la búsqueda por parte de Israel de personal y equipos de Hamas en la Franja de Gaza. El uso de IA en el campo de batalla está avanzando rápidamente, pero también existen riesgos significativos, dijo. «Esto implica tomar decisiones sobre objetivos, el riesgo clave es que se ataque al objetivo equivocado», dijo Scharre. «Podría causar víctimas civiles o atacar a un objetivo amigo y provocar que se haya producido un asesinato». Lo que se ha discutido mucho sobre el uso militar de la IA por parte de Israel es que las FDI han promocionado su inversión y aceptación de la IA. En 2017, el consejo editorial de las FDI declaró: «Las FDI consideran que la inteligencia artificial es clave para la supervivencia moderna». se jactaba de que sus “máquinas son más inteligentes que los humanos”. En ese artículo, la entonces directora de Sigma, la rama de las FDI dedicada a la investigación, el desarrollo y la implementación de IA, la teniente coronel Nurit Cohen Inger, escribe: “Cada cámara, cada tanque, y cada soldado genera datos de forma regular. Los siete días de la semana, las 24 horas del día”. “Entendemos que hay capacidades que las máquinas pueden lograr y que los humanos no pueden. Inger continuó. “Estamos poco a poco Introducir inteligencia artificial en todos los aspectos de las FDI, desde la logística y la mano de obra hasta la inteligencia». Las FDI han llegado incluso a llamar al conflicto final con Hamás en Gaza en 2021 la «primera guerra de inteligencia artificial» y el líder de las FDI analiza las ventajas de la tecnología. utilizado en la lucha contra Hamás «Por primera vez, la inteligencia artificial es un elemento clave y un multiplicador de fuerzas en la lucha contra el enemigo», dijo un alto funcionario de inteligencia de las FDI al Jerusalem Post. El comandante de la Unidad de Ciencia de Datos e IA de las FDI dijo que el sistema de IA ayudó a objetivos militares y eliminó a dos líderes de Hamas en 2021. Según el Post, las FDI dijeron que el sistema de IA estaba oficialmente integrado en la operación. En peligro de muerte desde principios de este año. Dijo que el sistema ayuda al ejército a procesar información y encontrar objetivos de forma más rápida y precisa. y todos los objetivos son verificados por operadores humanos. Sin embargo, los juristas internacionales en Israel han expresado su preocupación sobre la legalidad del uso de la herramienta. Y a los analistas les preocupa que la herramienta represente un avance hacia armas más totalmente autónomas. Y advierte que existen riesgos inherentes al reemplazar los sistemas de focalización con IA. En última instancia, muchos sistemas de IA se están convirtiendo cada vez más en cajas negras. donde los algoritmos no se comprenden bien y están protegidos de la vista del público En un artículo sobre la adopción de la IA para el Instituto Lieber de las FDI, los juristas de la Universidad Hebrea Tal Mimran y Lior Weinstein destacan los riesgos de depender de una automatización opaca que podría resultar en la pérdida de vidas (cuando Mimran sirvió en las FDI, inspeccionó los objetivos para garantizar cumplieron con el derecho internacional). “Mientras las herramientas de inteligencia artificial no puedan explicar”, escriben Mimran y Weinstein, “en términos de lo cual no podemos entender completamente por qué alcanzaron ciertos objetivos. En resumen, ¿cómo podemos demostrar que confiamos en las decisiones de la IA cuando hay vidas humanas en riesgo? …si un ataque causado por una herramienta de IA provoca daños importantes a civiles no implicados. ¿Quién debería ser responsable de tomar tales decisiones?” Una vez más, las FDI no me explicaron en detalle exactamente cómo utilizan la IA, y un funcionario le dijo a Bloomberg que alguien había revisado los resultados del sistema. Pero sólo lleva unos minutos. (“Lo que antes tomaba horas ahora toma minutos. y unos minutos más para la revisión humana”, dijo el jefe de transformación digital del Ejército). Hay varias preocupaciones. Dado lo que sabemos sobre el estado actual de los sistemas de IA, y es por eso que vale la pena presionar a las FDI para que revelen más sobre cómo se utilizan, en primer lugar, los sistemas de IA todavía están codificados con sesgos. Y si bien estos sistemas tienden a ser buenos para analizar grandes cantidades de datos (tienden a generar problemas cuando se les pide que hagan predicciones a partir de esos datos), Scharre dijo: «Existe realmente una diferencia fundamental entre la IA y los analistas humanos que hacen el mismo trabajo». Es decir, los humanos hacen un muy buen trabajo al generalizar a partir de muestras pequeñas. con situaciones nuevas, y los sistemas de IA luchan por generalizarse a situaciones nuevas». Un ejemplo: incluso se ha demostrado una y otra vez que incluso la tecnología de reconocimiento facial supuestamente de vanguardia utilizada por los departamentos de policía estadounidenses es precisa. Menos sistemas de IA que intentan automatizar y acelerar La elección de un objetivo aumenta la probabilidad de que los errores que se produzcan en el proceso sean más difíciles de discernir. Y si los militares mantienen en secreto el funcionamiento del sistema de IA No habría forma de evaluar el tipo de error que estaban cometiendo. «Creo que el ejército debería ser más transparente en cómo evalúa o accede a la IA», dijo Scharre. «Una de las cosas que hemos visto en los últimos años en Libia o Ucrania es una zona gris. Habrá acusaciones de que se está utilizando IA, pero los algoritmos o los datos de entrenamiento son difíciles de revelar. Y eso hace que sea muy difícil evaluar lo que están haciendo los militares». Aunque había errores incrustados en el código de eliminación, la IA, al mismo tiempo, Puede proporcionar credibilidad a objetivos que podrían ser inaceptables para los operadores de base y, por último, los sistemas de IA pueden crear una confianza falsa, que puede ser evidente incluso con la mejor IA de su clase. – Reforzar el sistema de vigilancia en Gaza Israel no encontró ningún plan para la brutal y bien coordinada masacre del 1 y 7 de octubre. Como señaló Peter Apps de Reuters: “El 9 y 27 de septiembre, casi una semana antes de que los combatientes de Hamas lanzaran el mayor ataque contra Israel desde Durante la Guerra de Yom Kippur de 1973, un funcionario israelí presidió un comité militar de la OTAN en la frontera de Gaza. Demostrar el uso de la inteligencia artificial y la vigilancia de alta tecnología. …del uso de drones aéreos que utilizan software de reconocimiento facial todo el camino hasta el puesto de control fronterizo y escuchas telefónicas de comunicaciones electrónicas. El espionaje de Israel en Gaza es ampliamente considerado como el esfuerzo asistido más intenso y complejo que existe, pero nada puede detener a Hamás. Hace dos semanas Decir que esto es un fracaso intelectual, no lo es, es un fracaso político”, dijo Anthony Loewenstein, periodista independiente y autor de “El Laboratorio de Palestina” que estuvo basado en Jerusalén Este durante los estados de 2016 a 2020, “Israel es centrado en Cisjordania. Al creer que ellos Rodeado por la Franja de Gaza Ellos creen incorrectamente Sólo eso, la tecnología más sofisticada logrará controlar y ocupar a la población palestina». Ésa puede ser una de las razones por las que Israel se muestra reacio a discutir su proyecto de IA. Otra puede ser que un punto de venta clave de la tecnología de los últimos años en la que la IA ayudaría seleccionar objetivos con mayor precisión y reducir las víctimas civiles parece poco fiable. “Las afirmaciones de IA se están dirigiendo con más éxito a las personas”, dijo Loewenstein, “pero no están claramente dirigidas a ellas. Hubo muchas muertes de civiles. Un tercio de las viviendas de Gaza quedaron destruidas. Eso no es apuntar con precisión”. Y ese es el temor de que la IA pueda usarse para acelerar o permitir las capacidades de destrucción de países que convulsionan de ira. con graves errores en el algoritmo oscurecidos por la niebla de la guerra.
Source link
+ There are no comments
Add yours