USD
41.81 UAH ▲0.09%
EUR
48.52 UAH ▼0.67%
GBP
56.03 UAH ▼1.22%
PLN
11.39 UAH ▼1.13%
CZK
1.97 UAH ▼0.72%
Eric Schmidt estime que la Chine et les États-Unis devraient conclure un accord ...

Les dépenses de Google ont été reconnus aussi effrayants que les armes nucléaires: qu'est-ce que c'est dangereux

Eric Schmidt estime que la Chine et les États-Unis devraient conclure un accord de retenue mutuelle. L'ancien PDG de Google, Google Eric Schmidt, a comparé l'intelligence artificielle aux armes nucléaires par le pouvoir et a mis en garde contre une éventuelle catastrophe. Son discours sur un forum de sécurité à Asphen est cité par Vice. Lisez les meilleurs documents de la section "Focus.

Didizhital" sur Facebook selon Eric Schmidt, dans un avenir proche en raison de problèmes avec la Chine et la sécurité américaine devra conclure un accord sur la retenue dans le domaine de l'intelligence artificielle, tout comme précédemment interdit le test des bombes nucléaires et signé d'autres contrats importants dans ce domaine. Dans les années 1960, les pays ont créé un monde qui a rendu impossible la «surprise» et a atteint l'équilibre de la confiance.

Maintenant, personne ne travaille sur de telles restrictions pour l'intelligence artificielle, bien qu'elle soit "tout aussi puissante". "Je suis très préoccupé par l'attitude américaine envers la Chine en tant que pays corrompu, communiste ou autre pays, et l'attitude chinoise envers l'Amérique en tant qu'échec permettra aux gens de dire" mon Dieu, ils pensent quelque chose "et ensuite lancer quelque chose comme un puzzle.

Commencer à faire quelque chose pour les armes ou la préparation, vous vous inquiétez de l'autre partie ", a déclaré Eric Schmidt. Selon Schmidt, il n'était pas pleinement conscient de la puissance de l'information lorsque Google se dirigeait. Maintenant, il voit le préjudice potentiel de la technologie, il les appelle donc à les créer en tenant compte des normes éthiques et des valeurs morales de l'humanité.

Hiroshima et Nagasaki sont deux villes japonaises que les États-Unis ont détruites à la fin de la Seconde Guerre mondiale en abandonnant les bombes nucléaires. Cette attaque a coûté la vie à des dizaines de milliers de personnes et a montré à quel point les armes nucléaires sont puissantes et effrayantes. Après cela, l'URSS et la Chine maîtrisent également la technologie, et l'humanité vit sous la menace d'une destruction mutuelle garantie.

La théorie de la restriction implique que si un pays lance des ogives nucléaires, alors on leur répondra la même chose et qu'une catastrophe mondiale se produira. Le vice note que l'IA et l'apprentissage automatique sont des technologies frappantes qui comprennent souvent le mal.

Pour la plupart, les machines ne sont pas aussi intelligentes que les gens le pensent, mais tout à fait capables de créer des chefs-d'œuvre d'art, de gagner des jeux vidéo ou de communiquer avec les clients au téléphone. Certains développeurs tentent de forcer l'intelligence artificielle pour conduire une voiture dans les grandes villes sans participation humaine, mais il y a encore des cas.

D'autres ont suggéré que vous contrôliez les armes nucléaires, estimant qu'il ne ferait pas d'erreurs et aiderait à éviter la catastrophe. "L'IA est loin d'être aussi destructrice que les armes nucléaires. Mais les gens qui sont au pouvoir ont peur de cette nouvelle technologie et, en règle générale, pour des raisons complètement mauvaises", disent les analystes.

Ils expliquent que le principal problème de l'intelligence artificielle n'est pas le potentiel qui peut être comparé aux armes nucléaires, mais les inconvénients des développeurs. Les algorithmes de machine sont bons autant que les personnes qu'ils créent. Par exemple, les racistes, consciemment ou non, transmettent leurs opinions sur les chatbots, qui permettent ensuite des déclarations racistes.

Le PDG de Deepmind DePmind Hasabis, qui a créé l'IA, capable de gagner des gens dans le jeu informatique Starcraft II: "AI, est une très grande chose, qui crée le SI, d'où ils proviennent et quelles valent les valeurs, les créateurs des systèmes de l'IA. Les systèmes d'intelligence artificielle apprendront eux-mêmes, mais le reste de la culture et les valeurs des créateurs de ce système restera.