USD
41.72 UAH ▲0.33%
EUR
49.18 UAH ▲1.09%
GBP
56.99 UAH ▼0.02%
PLN
11.57 UAH ▲1.03%
CZK
2 UAH ▲1.6%
Cette opinion a été exprimée par Lyran Antebi, scientifique de l'Institut de rec...

"Le problème n'est pas dans l'arme mais dans le SI": La quatrième guerre mondiale sera menée avec des pierres et des bâtons

Cette opinion a été exprimée par Lyran Antebi, scientifique de l'Institut de recherche sur la sécurité nationale (INS). Notre peur des drones est fausse: le vrai danger est la technologie qui les lance, explique Lyran Antebi, chercheuse de l'Institute for National Security Research (INS). "Je ne sais pas quelle arme la troisième guerre mondiale accueillera, mais la quatrième guerre mondiale sera menée de bâtons et de pierres", écrit le scientifique.

À l'approche de 2023, il est devenu clair que le monde des hostilités est passé de la menace des attaques nucléaires au cyberespace. L'intelligence artificielle pénètre tous les aspects de notre vie, et ce n'était qu'une question de temps où il commencera à être utilisé dans nos systèmes d'armes, selon CTECH. Lyran Antebi estime que les armes ne se préoccupent pas autant que l'autonomie des systèmes SI.

"Nous devons faire face à la technologie jusqu'à ce qu'il soit trop tard", a-t-elle déclaré. «Nous devons approfondir le sujet, ainsi que comprendre comment fonctionne« l'écosystème »des chi-technologies. " Bien sûr, l'intelligence artificielle est déjà dans notre vie quotidienne, automatisant certains de ses aspects. Les entreprises privées créent des véhicules autonomes, l'électronique autonome des ménages, une maison "intelligente", etc.

Et les gens l'aiment, car c'est tellement pratique. Cependant, Antebi affirme que lorsque l'autonomie parle d'armes, les opinions des gens changent de façon spectaculaire. "Lorsque nous parlons de la question militaire, nous parlons de vies humaines", a-t-elle expliqué. "S'il y a une puissance de feu, il y a un problème de survie, le problème de la mort et le problème de sauver des vies.

En ce qui concerne les systèmes mortels autonomes, les gens le perçoivent de manière très critique, mais uniquement parce qu'ils sont morts pour croire que les armes autonomes sont, tout d'abord, une arme, c'est-à-dire ce qui tue, mais une voiture ou un drone autonome ne peut pas tuer. Antebi étudie comment les opportunités d'autonomie.

Dans le passé, elle a conseillé l'ONU dans le cadre d'un groupe IPRAW (groupe international sur les armes autonomes Group de régulation des systèmes) et a conseillé le ministère israélien de la défense sur ces questions. Armes et à l'art. Nous devons être sûrs que l'IA est parfaite avant de lui donner la possibilité de conduire au moins quelque chose - et n'a pas d'importance, ce sera une arme ou une voiture, car cela peut être mal à tort ou même tuer.

Je parle de voitures autonomes comme Telsa, je parle de toutes sortes de robotiques. "Le scientifique a expliqué que les" solutions éthiques "fabriquées par l'IA" indépendamment "est un problème et la responsabilité des entreprises privées qui créent des technologies.

Systèmes auxquels on s'attend, Pour transporter des enfants dans des véhicules autonomes ou mener des attaques de drones dans les domaines des opérations de combat, devrait être parfait avant de pouvoir travailler en recevant le crédit de la confiance des citoyens et des gouvernements.

Le célèbre dilemme qui sauvera le robot pendant l'incendie, Ou comment le drone attaquera, pour atteindre la cible, nécessitera une supervision et une réglementation strictes afin que l'autonomie soit pratique mais pas mortelle. "Qui décidera pour moi? Ingénieurs Tesla? J'ai besoin que des gens à la genoux adoptent des lois. Mais ils ne savent pas comment résoudre ces problèmes, car les technologies sont trop compliquées ", a-t-elle déclaré.