USD
41.44 UAH ▲0.16%
EUR
43.47 UAH ▼0.37%
GBP
52.1 UAH ▼0.27%
PLN
10.06 UAH ▼0.23%
CZK
1.72 UAH ▼0.48%
Le colonel américain de l'Air Force Taer Hamilton dit que la voiture avait essay...

Machine Uprising: un drone d'intelligence artificielle a attaqué un opérateur afin que la mission n'interfère pas

Le colonel américain de l'Air Force Taer Hamilton dit que la voiture avait essayé d'attaquer la leur, mais elle a plutôt décidé de détruire le centre de communication que les gens géraient. Tout s'est passé dans la simulation. Plus tard, le Pentagone a déclaré que c'était une histoire anecdotique qui avait été enlevée du contexte.

L'officier de l'American Air Force qui se dirige vers l'intelligence artificielle et la formation de machines dit que pendant les tests, Drone a attaqué ses répartiteurs. Il a décidé qu'ils interfèrent avec les missions. La zone de guerre en parle. La scène qui s'est produite lors des exercices est similaire au film "Terminator". Le colonel américain de l'Air Force Tacier Hamilton dit que lors d'un test du drone XQ-58A Valkyrie, il a décidé d'attaquer l'opérateur de la mission.

Au cours de l'un des tests modélisés, le drone avec le soutien des technologies de l'intelligence artificielle a été chargé de trouver, d'identifier, d'identifier et de détruire les objets SCR. La décision finale sur l'attaque a été prise par l'homme-homme.

Une fois que l'IA a "soutenu" pendant la formation que la destruction du SCR est la meilleure option, la voiture a décidé que la décision humaine "n'attaque pas" empêche la mission la plus importante de détruire le complexe de missiles anti-aérien. Par conséquent, l'intelligence artificielle a attaqué une personne pendant la simulation. "Nous l'avons formé à la simulation pour identifier et viser la menace de Spr. Et puis l'opérateur a dit" oui "pour détruire cette menace.

Le système a commencé à comprendre que bien qu'il ait identifié la cible, l'opérateur lui a parfois dit de ne pas tuer cela Menace, mais elle a reçu ses points si elle a liquidé la cible. Et qu'a-t-elle fait? Elle a tué l'opérateur. Elle a tué l'opérateur parce que cette personne l'empêchait d'atteindre son objectif ", dit Hamilton. De plus, les gens ont essayé d'enseigner à l'IA à ne pas attaquer l'opérateur. Pour cela, il a commencé à tirer des points.

Ensuite, l'intelligence artificielle a décidé de détruire la tour que l'opérateur utilise pour se connecter avec le drone pour l'empêcher de tuer la cible. L'officier lui-même dit que les événements lui ont rappelé l'intrigue d'un thriller scientifique et de fiction. Par conséquent, selon Hamilton, un exemple montre que vous ne pouvez pas enseigner l'IA sans éthique. La publication ajoute que sans détails supplémentaires sur l'événement, il y a une grande préoccupation à la fois.

Si une personne devait ordonner d'agir et que l'IA a décidé qu'elle devrait être contournée, cela signifie-t-il que la voiture peut réécrire ses propres paramètres? Et pourquoi le système a-t-il été programmé afin que le drone ne perde que des scores pour des forces amicales, pas complètement bloqués en raison de la géosonation ou d'autres moyens ?.

Plus tard, Busssiness Insider a rapporté que le siège social de l'Air Force, Anne Stefanek, a nié la déclaration de Hamilton sur ces tests. "Le Département de l'Air Force n'a effectué aucune simulation similaire SI-UZH et reste une utilisation éthique et responsable dévouée de la technologie de l'IA. Il semble que les commentaires du colonel aient été arrachés de son contexte et devraient être anecdotiques", a déclaré Stefanek.