Una nueva investigación de +972 Magazine y Local Call revela que el ejército israelí ha desarrollado un programa basado en inteligencia artificial conocido como “Lavender”, presentado aquí por primera vez. Según seis oficiales de inteligencia israelíes, que sirvieron en el ejército durante la actual guerra en la Franja de Gaza y estuvieron involucrados de primera mano con el uso de IA para generar objetivos para el asesinato, Lavender ha desempeñado un papel central en el bombardeo sin precedentes de palestinos, especialmente durante las primeras etapas de la guerra. De hecho, según las fuentes, su influencia en las operaciones militares fue tal que esencialmente trataron los resultados de la máquina de IA "como si fuera una decisión humana". Las fuentes dijeron que la aprobación para adoptar automáticamente las listas de muerte de Lavender, que anteriormente se habían utilizado sólo como herramienta auxiliar, se otorgó aproximadamente dos semanas después de la guerra, después de que el personal de inteligencia verificara "manualmente" la precisión de una muestra aleatoria de varios cientos de objetivos. seleccionado por el sistema de IA. Cuando esa muestra descubrió que los resultados de Lavender habían alcanzado un 90 por ciento de precisión en la identificación de la afiliación de un individuo con Hamás, el ejército autorizó el uso generalizado del…
Lee mas@VOTA1 año1Y
¿Qué opina de que un sistema de inteligencia artificial tome decisiones sobre quién debería ser el objetivo de las acciones militares?
@VOTA1 año1Y
¿Cree que confiar en la IA para decisiones tan críticas y que alteran la vida elimina o reduce la responsabilidad moral de los operadores humanos?
@VOTA1 año1Y
¿Debería la inteligencia artificial tener el poder de decidir el destino de los humanos en situaciones de conflicto?
@VOTA1 año1Y
Si un sistema de inteligencia artificial como Lavender comete un error que provoca la pérdida de vidas inocentes, ¿quién debería ser considerado responsable?
Únase a conversaciones más populares.