Ceci est indiqué dans l'article de l'intérêt national sous le nom de "lors de l'évaluation des États-Unis, les États-Unis devraient s'appuyer sur l'efficacité, et non sur l'explication", qui a été traduite par Focus. Les États-Unis devraient apprendre à évaluer les outils de l'IA, tels que les grands modèles de langage, dans leur productivité, pas la capacité d'expliquer ses décisions.
La confiance doit être basée sur les résultats, et non sur les attentes irréalistes de la pensée anthropomorphe. Étant donné que les États-Unis entrent dans la nouvelle ère de la rivalité des grandes puissances, en particulier avec la Chine technologiquement ambitieuse, la question de savoir comment et quand faire confiance aux systèmes de l'IA, tels que les modèles de grandes langues (VMM), ne devient pas seulement technique. C'est stratégique.
Ces outils seront cruciaux dans la façon dont les États-Unis distribuent des ressources, déterminent la priorité des investissements de défense et occupent des positions dans l'Indo-Pacifique et au-delà. Il n'a aucune intelligence. Ce sont des reconnaissances d'images formées sur d'énormes gammes de données et sont destinées à prédire le mot suivant en séquence.
Semblable à un épargneur d'échecs, qui fait un mouvement brillant mais intuitif, il ne peut souvent pas expliquer pourquoi ils génèrent l'un ou l'autre résultat. Cependant, le ministère de la Défense, par le biais d'organisations telles que la Direction générale des technologies numériques et de l'IA, a défini la clarté des décisions de l'IA en tant que requis pour son utilisation rapide. Cette bonne intention peut conduire aux meilleures conséquences.
Les explications dans les bourgeons peuvent être techniquement inaccessibles, et sa poursuite peut être un facteur distrayant. Ces modèles ne «comprennent» pas au sens humain. Leurs résultats sont des associations statistiques, et non la cause et l'effet.
Les explications post-factum, bien qu'elles apportent du plaisir, peuvent induire en erreur et éventuellement empêcher l'introduction d'outils capables d'améliorer la prédiction stratégique, l'analyse de l'intelligence et de la planification opérationnelle. Le véritable danger est trop d'attention au détriment de l'efficacité.
De nombreuses décisions de sécurité nationale à partir du choix des objectifs pour la planification des achats - comprennent déjà des processus opaques mais éprouvés, tels que varheiming ou évaluation d'experts. Il peut être complété par ces approches pour traiter la quantité d'informations à une vitesse que les personnes analytiques ne peuvent pas comparer.
Au lieu d'essayer de le rendre plus "humain", nous devons les évaluer par les critères qui répondent à leur fonctionnement: cohérence, précision et clarté des restrictions. Il faut le demander: de nouvelles méthodes, telles que des faits automatiques, ont considérablement réduit les hallucinations - de 9% à 0,3% dans certains modèles.
Des systèmes basés sur la productivité, tels que Trustllm, promettent d'évaluer la fiabilité du modèle de manière plus exhaustive que jamais par les explications. Afin d'assurer une intégration efficace et sûre de modèles de grandes langues dans des contextes militaires et défensifs, les politiciens devraient être préférés par des tests opérationnels plutôt que par la clarté.
Au lieu de se concentrer sur l'interprétation artificielle, les systèmes doivent être évalués par le seuil de productivité avant le déploiement. Cette approche est basée sur la fiabilité empirique et garantit que les outils d'IA produiront des résultats cohérents dans des conditions réelles. Les politiciens devraient garder le commandement militaire de nature et de restrictions.
La confiance dans ces modèles doit être basée sur les résultats mesurés, et non sur l'illusion de compréhension ou de qualités anthropomorphes. Étant des outils déraisonnables, il est basé sur la reconnaissance des images, et non des connaissances, et ne devrait pas s'attendre à ce qu'ils simulent la pensée humaine ou la conscience de soi. Enfin, il est nécessaire de développer des recommandations pour l'introduction de l'IA, en tenant compte des cas spécifiques d'utilisation.
Différents scénarios opérationnels nécessitent différents niveaux de contrôle et de fiabilité. Par exemple, lors de la généralisation des données d'intelligence, la priorité peut être une forte cohérence, tandis que l'utilisation du combat nécessite un système de retenue et un contrôle humain constant pour réduire les risques et la responsabilité.
En général, la confiance dans les bourgeons ne devrait pas être basée sur leur capacité à sonner humainement, mais sur leur capacité constante à émettre des résultats précis, récurrents et prouvés. Il est irréaliste et contre-productif de les considérer comme des oracles numériques. L'évaluation des systèmes d'IA basée sur la productivité, et non l'interprétation ou l'attractivité anthropomorphe, est une approche beaucoup plus pragmatique et efficace.
Michael "Sparky" Perry-Lieutenant Colonel de l'Air Force et le principal pilote MC-130 avec une maîtrise en administration des affaires et en affaires militaires. Fear à la défense nationale à la SEM International Relations School du Georgia's Technology Institute.
Tous les droits sont protégés IN-Ukraine.info - 2022