USD
39.53 UAH ▼0.34%
EUR
42.31 UAH ▼0.5%
GBP
49.47 UAH ▼0.32%
PLN
9.78 UAH ▼0.84%
CZK
1.68 UAH ▼0.39%

Ilon Musk a déclaré une guerre WI: il envisage ou joue des concurrents?

"Cette personne vendait des flammes et parle maintenant de la sécurité", se moquent d'un masque de critique. Le magnat Scandalous IT nécessite même une interdiction gouvernementale du développement de neurotrans. Ilon Musk et un groupe d'experts soutenant, signé et publié aujourd'hui une lettre ouverte à l'ensemble de la communauté informatique avec un appel pour arrêter temporairement le développement de l'IA.

Dans leur message, ils demandent des développeurs de l'intelligence artificielle pendant au moins un demi-année pour arrêter le développement et la formation des neurotromes, qui peuvent dépasser leurs capacités d'aujourd'hui ChatGPT-4, car ils menacent l'humanité avec presque l'apocalypse. L'objectif a essayé de gérer ce qui s'est passé.

Les signataires qui ont déjà fait du bruit, le message est convaincu qu'il est maintenant nécessaire de s'arrêter dans le développement de l'IA pour développer des règles conceptuelles et des restrictions sur son travail. Le groupe d'initiative a peur que les systèmes d'IA modernes deviennent plus compétitifs en ce qui concerne les tâches simples.

Mais comme cet argument n'est pas trop efficace, les experts soulignent particulièrement leur attention sur les problèmes douloureux des contrefaçons et de la propagande. "Nous devons nous demander: pouvons-nous permettre aux machines de boucher nos canaux d'information par la propagande et mal?" - Les auteurs de la note de lettre.

De plus, les signataires croient qu'avec le développement de neurotroups, l'IA deviendra plus intelligente qu'une personne, ce qui entraînera le risque de perte de contrôle sur la civilisation et la transition du pouvoir sur les personnes vers l'IA. Les experts sont prêts pour des événements extrêmes si la lettre ne donne pas aux destinataires.

"Si les entreprises qui développent une IA n'acceptent pas de suspendre leurs développements pendant au moins une demi-année, le gouvernement devrait intervenir et interdire toutes ces recherches", a déclaré dans le document signé par Ilon Musk. Le groupe d'experts souhaite "créer des protocoles de sécurité spéciaux pour l'IA, et pendant ce temps, les gouvernements des pays doivent avoir des organismes de réglementation spéciaux et des lois dans un délai d'un demi-année.

Musk et son équipe rejettent immédiatement toutes les accusations selon lesquelles ils stagneront et soulignent qu'ils veulent juste mettre le développement de l'IA sur une pause. Soit dit en passant, parmi les signataires, il y a une personne qui, malgré tous les doutes et les mises en garde, a autrefois déplacé le steve de l'industrie informatique Wozniak, l'un des fondateurs d'Apple.

Fait intéressant, la lettre a été créée avec le soutien du Future of Life Institute de l'organisation sans but lucratif, qui est engagé dans la promotion du développement responsable et éthique de l'IA. L'Institut a précédemment atteint que les chiffres suivants tels que Musk et le Labo Google Deepmind n'ont jamais été promis de développer des systèmes d'armes autonomes mortels.

Soit dit en passant, Ilon lui-même est devenu un "consultant en freelance" honoraire de cet institut, ainsi que des stars de la science comme Sol Perlmutter, le prix Nobel de physique en 2011, et Morgan Fryman, acteur et directeur. Bien sûr, cette lettre ouverte a provoqué une véritable tempête d'émotions sur Twitter et les commentateurs n'ont pas honte de déclarations. Certains d'entre eux croient qu'une personne qui a échangé des lance-flammes ne devrait pas parler de la sécurité.

D'autres commentateurs soupçonnaient qu'Ilon Musk veut simplement s'intégrer dans la race de l'IA, et comme il n'a pas le temps pour les dirigeants, cette lettre et cette appelle au gouvernement pour intervenir simplement de saboter les concurrents. Quelqu'un soupçonnait même un masque qu'il joue de la Chine ou de Google.

Après tout, les signataires incluent DeepMind, qui appartient au géant de la recherche, et il est connu pour perdre rapidement des positions par rapport à la façon dont Microsoft a réussi à intégrer ChatGPT-4 dans tous leurs produits et les utilisateurs en pleine croissance.

Quelqu'un s'est souvenu du masque et de sa relation difficile avec l'IA ouverte (développeurs de Chatgpt), avec qui Ilon a coopéré, mais a divorcé, saisissant le milliard promis qui allait investir dans l'entreprise. Les critiques reprochent désormais les masques pour l'envie banale à ses anciens collègues qui, malgré tout, ont conduit au succès et sont devenus législateurs dans le segment de l'intelligence artificielle.

Ils se sont souvenus du masque et de sa capacité à gérer l'IA, car le réseau neuronal a été utilisé dans le développement de pilotes automobiles à Tesla, et les voitures ont toujours eu l'accident. Beaucoup ont noté que les signataires comprennent des sociétés d'IA, telles que la stabilité AI (génération de dessin), qui rivalise sérieusement avec le réseau neuronal génératif de Dall-E-A d'Openai.

Soit dit en passant, grâce à l'énorme investissement dans Open IA, Dall-E est disponible gratuitement pour tous les utilisateurs de l'entreprise. Les plus déchirés ne peuvent pas croire à la logique d'une telle proposition.

Ils ne comprennent vraiment pas comment une demi-année il est possible d'effectuer une telle quantité de travail: élaborer des règles réglementaires, les lois gouvernementales sur le contrôle de l'IA, pour collecter un groupe d'experts indépendants sur le contrôle "(" indépendance "qui ne sera pas soumis à doute, et les candidats eux-mêmes seront tous que tout le sera).

Et il y a aussi une question importante: qui contrôle le moratoire sur l'interdiction temporaire du développement de l'IA Chine et de la Russie? Et si davantage de sanctions peuvent être imposées à la Fédération de Russie, la Chine est très activement impliquée dans la négociation des neurotromes, et il n'est pas si facile de sortir de la selle.

Et surtout, où est la garantie que d'autres pays suivront cette "pause"? Et qui blessera la pause pour continuer les mêmes géants informatiques, comme on dit, pour continuer à travailler sur le SI, afin qu'ils ne suivent pas les concurrents? L'argument principal en faveur du «danger AF pour les humains» se propage également dans les peluches et la poudre à canon, citant des données spécifiques des enquêtes sur les chercheurs en apparence des machines menées par des impacts d'IA.

Selon ces données, seulement 24% des experts sont estimés comme de "très bonnes" capacités des neurotromes modernes, et le reste des évaluations s'étend au "bon" niveau (26% des répondants), "neutre" (18% des spécialistes ) et "très mauvais" (14% d'experts). Certaines personnes dans les commentaires soulignent que les chatbots modernes sur la base de l'IA sont loin de la première fois qu'ils peuvent y répondre à une question apparemment simple.

En général, la proposition du masque et un groupe de ses partisans, qui comprend également Steve Wozniak, les commentateurs sont évalués comme une évolution hystérique et conservée. L'un des critiques a fait une analogie vive entre les "paniqueurs" des termes et l'opinion d'un fonctionnaire qu'il a exprimé pendant la pandémie Covid-19: "Cette quarantaine ne fait que 2 semaines. Nous avons juste besoin de faire tomber la vague.