Technologie

"Super" Si aidera les États-Unis dans la guerre avec la Chine: pourquoi le masque de randonnée est dangereux pour l'armée

Les chercheurs sont arrivés à la conclusion que la «petite» IA dans certains cas est plus utile pour les militaires que les grands modèles à forte intensité d'énergie. Aujourd'hui, dans le domaine de l'intelligence artificielle (IA), le principe de «plus, le meilleur» prévaut, mais une nouvelle étude montre qu'une telle randonnée peut saper le développement des chi-technologies nécessaires aux militaires américains maintenant et à l'avenir. Ceci est indiqué dans la défense One.

Les chercheurs Gael Varoko de l'Université de Paris-Sakle, Alexander Sasha Luchni de l'Institut de Québek et Meredith Wittcker of Signal Foundation dans son article "La stabilité, la stabilité et le prix du paradigme" plus et le meilleur "dans l'IA" ont étudié l'histoire de former le principe susmentionné sur le terrain. Ils ont constaté que cette idée avait été formulée en 2012 dans l'article du professeur de Toronto Alex Kryzhevskaya Université.

Dans son travail, Alex Kryzhevsk a fait valoir que de grandes quantités de données et des réseaux de neurones à grande échelle produisent de bien meilleurs résultats pour classer les images que les plus petites. Cette idée a été soutenue par d'autres chercheurs, et plus tard, cette approche est devenue dominante parmi les grandes entreprises d'IA.

"La conséquence est à la fois une explosion d'investissement dans les modèles d'IA à grande échelle et un bond d'accompagnement dans la taille des modèles notables (hautement cités). IA générative, que ce soit pour des images ou du texte, ou pour le texte, a apporté cette hypothèse à un nouveau Le niveau, comme dans la discipline de la discipline de recherche sur l'IA, ainsi qu'une composante du récit populaire "plus - cela signifie mieux" qui entoure l'IA ", indique l'étude.

Le matériel indique que la productivité des grands modèles d'IA ne justifie pas toujours les ressources nécessaires à leur fonctionnement. De plus, la concentration des efforts dans le domaine de l'IA dans un nombre relativement faible de grandes sociétés technologiques comporte des risques géopolitiques.

Malgré le fait que le ministère américain de la Défense fait attention aux deux grands modèles d'IA et à des producteurs moins à grande échelle, les experts craignent que les futures études dans le domaine de "petites" AIS ne soient limitées en raison de l'influence croissante des grandes entreprises SHI.

Un exemple est l'énoncé de l'ancien président de Google, Eric Schmidt, qui a déclaré que les entreprises et les gouvernements devraient continuer à s'engager dans de grands modèles d'IA à forte intensité d'énergie, quel que soit le coût de l'énergie, car "nous n'atteindrons toujours pas les objectifs climatiques".

Dans le même temps, les coûts environnementaux, en particulier la consommation d'énergie, augmentent beaucoup plus rapidement que d'améliorer la productivité des modèles d'IA. Les experts soulignent que les études dans le domaine de l'IA sur le principe de «plus - signifie mieux» entraîner un rétrécissement et une perte de diversité dans ce domaine. Selon la défense, ce rétrécissement peut avoir des conséquences négatives pour le développement de l'armée de l'IA.

Le fait est que les modèles d'IA plus petits peuvent être importants dans les endroits où les ressources informatiques sont petites et intermittentes, rares ou même absentes. "Il est souvent le cas que plus petit, plus axé sur les tâches du modèle fonctionne mieux que les grands modèles à profil large, lors de la résolution de tâches spécifiques sous le flux", se lit dans un article séparé publié par un groupe de chercheurs de Berkeley .

Par exemple, les drones fonctionnaient sous l'action des HR et les petites bases dans des positions avancées où l'énergie est faible et la liaison est faible. Les opérateurs peuvent rencontrer un certain nombre de situations où un modèle d'IA qui fonctionne sur une gamme relativement faible de données et ne nécessite pas de ferme de serveurs massive ou d'un grand nombre de processeurs graphiques.

Il peut s'agir d'applications pour les images UAV et satellite, ainsi que des technologies de traitement des données économiques, météorologiques, démographiques et autres pour planifier des opérations plus efficaces et sûres dans les villes.

"Mais si le secteur de la recherche sur l'IA accorde la priorité au grand expert sur les petits, cela peut signifier moins de recherches et moins d'experts pour enseigner aux opérateurs comment bien créer leurs propres modèles d'IA", a déclaré la publication. Une autre conséquence potentielle du développement prioritaire de la «grande» IA est la concentration du pouvoir. Seules certaines entreprises ont des ressources pour créer et déployer de grands modèles.

Un exemple est mentionné par Ilon Musk, qui est l'un des plus riches entrepreneurs défensifs du monde. Ilon Musk devient également l'un des principaux acteurs financiers du développement de la future IA. "Le pouvoir privé concentré sur l'IA crée un petit segment financièrement motivé des personnes qui prennent des décisions dans le domaine de l'IA.

Nous devons considérer comment un tel pouvoir concentré avec l'agence sur l'IA centralisée peut former une société dans des conditions plus autoritaires", ont déclaré les chercheurs . Selon Defense One, une nouvelle classe d'experts d'IA partage également l'avis que la concentration sur la "grande" IA est supprimée par des approches qui pourraient être plus utiles pour des groupes spécifiques.

Oui, le PDG de la startup Shi Sensors utile Pete Worden a déclaré à la publication que l'obsession de l'industrie et des cercles académiques par une IA à grande échelle plus grande manque ce que la plupart des gens veulent réellement de l'IA. "Les références académiques ne sont pas d'accord avec les exigences du monde réel.

Par exemple, de nombreux clients veulent simplement être en mesure d'extraire les résultats des informations disponibles (par exemple, les guides utilisateur), ne générant pas de nouveau texte en réponse à la question, mais les chercheurs Ne considérez pas cela intéressant ", a déclaré Pit. Worden.

Pour sa part, Drew Breunig, une exclusivité des données sur les données et les clients stratégiques de PlaceIQ, qui travaille maintenant précisément, a ajouté que les attentes élevées de nombreuses personnes sur les grands modèles d'IA sont peu susceptibles d'être justifiées. Drew Breunig divise l'IA en trois groupes.

Le premier est les «dieux», qu'il définit comme «surmonter les morceaux de l'IA» et «remplacer les gens qui font beaucoup de choses différentes sans supervision». Sous la hiérarchie se trouvent des "stagiaires", qu'il décrit comme "des spécificités spécifiques au domaine qui aide les experts à travailler dur et fatigant, faisant ce que le stagiaire pourrait faire". Ces modèles sont sous la supervision d'experts.

La troisième, la forme la plus locale de l'IA, Drew Breunig appelé "Gears". Ce sont des modèles pour la même tâche, avec une très faible résistance aux erreurs qui fonctionnent sans supervision dans les applications ou les convoyeurs. Selon l'expert, il s'agit du type d'IA le plus courant utilisé par les entreprises - toutes les grandes plateformes sont passées à l'aide des entreprises à télécharger leurs propres données pour configurer des modèles d'IA, ce qui peut bien faire.

"Une chose cool en se concentrant sur les engrenages est que vous pouvez en faire tellement avec de petits modèles! Un minuscule modèle, configuré pour une chose, peut dépasser le modèle général géant lors de la même tâche", a résumé l'expert.