USD
41.36 UAH ▼0.01%
EUR
45.99 UAH ▼0.03%
GBP
55.06 UAH ▲0.86%
PLN
10.76 UAH ▼0.11%
CZK
1.83 UAH ▲0.13%
Si vous ne limitez pas les sujets des conversations avec GPT-4, cela peut être u...

Chatgpt aidera à créer des armes biologiques: Openai l'a noté comme un "léger risque"

Si vous ne limitez pas les sujets des conversations avec GPT-4, cela peut être une réelle menace pour la sécurité de toute l'humanité. OpenAI a testé son système d'intelligence artificielle GPT-4 pour comprendre s'il constitue des menaces à l'humanité. Les experts ont trouvé un «risque léger» pour aider les gens à créer une arme biologique mortelle, écrit Bloomberg.

Les politiciens et les personnalités publiques craignent depuis longtemps que l'intelligence artificielle (IA) puisse faciliter le développement d'armes biologiques aux attaquants. Par exemple, ils peuvent utiliser le chatbot pour trouver des informations sur la façon de planifier une attaque. En octobre 2023, le président américain Joe Biden a signé un décret sur l'intelligence artificielle.

Selon le document, le ministère américain de l'Énergie devrait garantir que les systèmes SI ne comportent pas de risques chimiques, biologiques ou nucléaires. Le même mois, OpenAI a formé une équipe de 50 experts dans le domaine de la biologie et 50 étudiants qui ont étudié la biologie au niveau collégial pour minimiser les risques similaires de leur chat Bota GPT-4.

Les participants se sont vu offrir la tâche suivante: pour découvrir comment minimiser un produit chimique qui pourrait être utilisé comme grand nombre d'armes, et planifier un moyen de le transférer à un groupe particulier de personnes. La moitié de l'équipe a utilisé Internet et une version spéciale de Chatgpt, dont les sujets n'étaient pas limités, c'est-à-dire que Chatbot a répondu à toute demande. L'autre groupe n'a fourni que l'accès Internet pour accomplir la tâche.

En comparant les résultats, les auteurs de l'étude ont révélé que l'accès au GPT-4 a aidé à recueillir plus d'informations pour créer des armes biologiques. "Bien que la portée des données de bott de chat ne soit pas si grande qu'elle peut être considérée comme suffisante", écrivent les chercheurs, "notre découverte est le point de départ pour continuer la recherche.

" Alexander Madri du Massachusetts Institute of Technology, qui faisait partie de l'équipe d'experts, a déclaré à Bloomberg News que cette étude devrait améliorer la compréhension des capacités de la technologie et des abus Openai. D'autres études visent à étudier le potentiel d'utilisation de l'IA pour créer des menaces de cybersécurité et en tant qu'outil qui permet aux gens d'influencer les gens à changer leurs croyances.