Technologie

"Peut se briser soudainement": la Russie a utilisé l'IA d'Openai c. Ukraine - Ft

Pendant les opérations, le doppelhanger et la mauvaise grammaire, les Russes ont tenté de priver l'Ukraine de partenaires de soutien, créant du contenu avec des neurotromes. Des structures liées à la Russie, en Chine, en Iran et en Israël utilisent les outils de l'intelligence artificielle d'OpenAI, qui a créé un chatbot chatppt pour créer et diffuser une désinformation, en particulier sur la guerre en Ukraine. Financial Times écrit à ce sujet.

Selon l'entreprise, des modèles d'intelligence artificielle s'ouvrent pour générer du texte et des images ont été utilisés dans de grands volumes dans cinq opérations d'influence cachée et pour créer des commentaires. Le contenu susmentionné concernait la guerre en Ukraine, un conflit dans le secteur de Gaza, des élections en Inde, ainsi que des politiques en Europe, aux États-Unis et en Chine.

L'IA a également été utilisée pour augmenter la productivité, notamment l'ajustement du code et les réseaux sociaux. Selon le rapport OpenAI, les outils de la société ont été utilisés, en particulier, dans le fonctionnement de la Russie, "Dopplganger" visant à saper le soutien de l'Ukraine. L'opération de grammaire russe est également mentionnée.

Selon la société, les attaquants ont utilisé des modèles OpenAI pour démarrer le code pour exécuter le bot Telegram, ainsi que pour créer de courts commentaires sur des sujets politiques en russe et en anglais pour la distribution en télégramme. En outre, selon la publication, les outils d'IA d'OpenAI ont utilisé le réseau chinois Spamflage qui favorise les intérêts de Pékin à l'étranger.

Il s'agit de créer du texte et des commentaires sur plusieurs pour publication sur le réseau social X. signalant également la prévention de la campagne israélienne, probablement organisée par Stoic, qui a utilisé l'IA pour créer des articles et des commentaires sur Instagram, Facebook et X. Openai Politique interdit la Utilisation de ses modèles pour ses modèles pour ses modèles tromper ou tromper les autres.

La société a déclaré qu'elle travaillait sur la détection des campagnes de désinformation et qu'ils créent également des outils basés sur l'IA pour le faire plus efficacement. Les représentants d'OpenAI s'assurent qu'ils ont déjà compliqué le travail des attaquants et que leurs modèles ont refusé à plusieurs reprises de générer le contenu demandé.

Openai Ben Nimmo, chercheur en chef du service des renseignements et des enquêtes, a déclaré dans une conversation avec des journalistes que l'utilisation des modèles OpenAI dans les campagnes avait légèrement augmenté. "Ce n'est pas le moment de l'estime de soi. L'histoire montre que les opérations de l'influence qui n'ont pas produit de résultats depuis des années peuvent soudainement clignoter si personne ne les cherche", a souligné Ben Nimmo.

Rappelons qu'Openai a testé son système d'intelligence artificielle GPT-4 pour comprendre s'il constitue des menaces à l'humanité. Les experts ont trouvé un «risque léger» pour aider les gens à créer une arme biologique mortelle. OpenAI a également signalé qu'Openai a annoncé un partenariat avec les médias d'Axel Springer.