USD
41.14 UAH ▼0.57%
EUR
48.3 UAH ▼1.03%
GBP
55.27 UAH ▼1.18%
PLN
11.31 UAH ▼1.37%
CZK
1.98 UAH ▼1.43%
Grâce à l'intelligence artificielle, le Tanal peut immédiatement compter et fair...

L'armée israélienne utilise l'IA pour choisir des objectifs: comment est le mystérieux système d'usine de pompiers

Grâce à l'intelligence artificielle, le Tanal peut immédiatement compter et faire des coups mortels sur l'ennemi. Israël introduit imperceptiblement des systèmes d'intelligence artificielle dans ses opérations militaires, rapporte Bloomberg. Selon les responsables de l'armée, il est désormais possible de sélectionner des cibles pour les coups de l'air et de tenir des raids à une vitesse sans précédent.

Bien que les militaires ne commentent pas des opérations spécifiques, les responsables disent qu'ils utilisent désormais un système de recommandation SI qui peut traiter d'énormes quantités de données pour sélectionner des objectifs pour les frappes aériennes.

Tous les raids et coups sont prévus pour les analyses du système Fire Factory, qui utilise des données sur les objectifs militaires approuvés pour calculer le nombre de munitions, hiérarchiser les priorités et indiquer des milliers de cibles par les plans et les drones, et offre un coup optimal approprié. Tout cela est dû au fait que le système est basé sur l'intelligence artificielle et les algorithmes de calcul progressifs.

Les détails des militaires, bien sûr, ne révèlent pas, mais ils disent que Fire Factory, spécialement conçu pour une analyse rapide et précise du traitement des tableaux d'énormes de données up-date et archivismes "Ce qui a pris une heure plus tôt, prend maintenant des minutes , avec quelques minutes pour vérifier une personne ", - a déclaré le colonel Uri, qui dirige l'unité de l'armée de la transformation numérique du réservoir.

"Grâce au développement de neurotrans avec le même nombre de personnes, nous faisons bien plus qu'auparavant", a souligné les militaires. L'Armée de défense israélienne utilise l'IA depuis longtemps, mais ces dernières années, il a diffusé ces systèmes à différentes unités. Certains de ces systèmes ont été construits par des entrepreneurs de la défense israélienne; D'autres, comme les caméras de contrôle des frontières de Startrack, ont développé les militaires eux-mêmes.

Ce système combine la fonction de la surveillance vidéo avec l'identification rapide des personnes et des objets qui ont été identifiés. Ensemble, le système est une grande architecture numérique conçue pour analyser un grand nombre de vidéos des drones et des caméras de surveillance vidéo, ainsi que des images satellites. Le Tahal refuse de signaler tout détail de la technologie de reconnaissance faciale utilisée dans Startrack.

Ce système est activement critiqué par des militants des droits de l'homme, mais l'armée israélienne promet qu'ils n'intégreront pas l'intelligence artificielle dans des logiciels pour l'embauche du personnel militaire en raison des risques de discrimination des femmes et des cadets potentiels de groupes socio-économiques inférieurs.

Le facteur le plus important qui se préoccupe des défenseurs des droits de l'homme est les risques des victimes parmi les civils, qui peuvent apparaître en raison des mauvaises solutions d'outils d'intelligence artificielle. L'armée israélienne est justifiée par le fait que les réseaux de neurones sont un outil très précis et que les algorithmes d'analyse peuvent dépasser les capacités humaines et peuvent aider les militaires à minimiser les pertes.

Mais certains analystes ne conviennent pas à cette réponse, ils prêtent attention au fait rapide et presque incontrôlé de développement et d'utilisation de systèmes basés sur l'intelligence artificielle. En outre, selon certains experts-avocats, aujourd'hui, la frontière entre les systèmes semi-autonomes et complètement autonomes est si floue qu'il est souvent impossible de comprendre qui finit par prendre une décision militaire: une personne ou une voiture.

"S'il y a une erreur dans les calculs de CI, alors qui blâmons-nous cette erreur?", - demande Tal Mimran, professeur de droit international à l'Université juive de Jérusalem et ancien conseiller juridique de l'armée. "Vous pouvez détruire la famille innocente ou la moitié de la ville en raison de l'erreur du réseau neuronal ou de la mauvaise analyse et qui sera coupable?", Ajoute-t-il. Plus tôt, Focus a déclaré qu'à l'avenir, les guerres avec des robots et SI pourraient commencer.