Подключение к DriversCloudСоздать аккаунт на DriversCloud.comИзменение пароля на DriversCloud.comМиграция счетов
Многие эксперты хотят затормозить развитие искусственного интеллекта: Билл Гейтс с этим не согласен
История о том, что искусственный интеллект учится все быстрее и быстрее, и это не научная фантастика.
Открытое письмо, которое также имеет форму петиции, подписанное Элоном Маском (генеральным директором SpaceX, Tesla и Twitter) и Стивом Возняком (сооснователем Apple), было размещено на сайте futureoflife.org. Большое количество исследователей и других специалистов в области технологического прогресса и искусственного интеллекта присоединились к двум вышеупомянутым, чтобы призвать к паузе в исследованиях ИИ. Этим письмом подписавшиеся хотят предупредить о последних достижениях искусственного интеллекта и катастрофических последствиях, к которым может привести все более жесткая конкуренция в этой области. Генеративный искусственный интеллект показал лишь малую часть своего потенциала, и появление такого мощного программного обеспечения, как ChatGPT, подталкивает большинство конкурентов OpenAI ускорить свою работу.
Однако подписанты письма отмечают, что такая безудержная конкуренция имеет не только преимущества. В частности, они указывают на проблемы безопасности. Действительно, поскольку работа в этой области становится все более чувствительной, возникает вопрос о секретности исследований. Не имея информации о работе, проводимой теми или иными лицами, общество в целом не в состоянии защитить себя от возможных опасностей, дрейфа или катастрофы. Цитируя Clubic, подписанты спрашивают: "Должны ли мы позволить машинам наводнить наши информационные каналы пропагандой и неправдой? Должны ли мы автоматизировать все рабочие места, включая оплачиваемые? Должны ли мы развивать нечеловеческие разумы, которые однажды могут превзойти, перехитрить, устареть и заменить нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией?
Поэтому цель этого открытого письма - призвать к своего рода "паузе". Подписавшие письмо хотели бы, чтобы разработка самых передовых искусственных интеллектов была приостановлена по крайней мере на шесть месяцев. Этот период времени должен позволить оценить опасности, определить, действительно ли прогресс, достигнутый в этой области, является положительным, а риски - управляемыми. Сам Сэм Альтман - он является руководителем компании OpenAI - признался, что его "немного пугает " достигнутый прогресс и опасность для человечества, если искусственный интеллект ChatGPT будет использован для "крупномасштабной дезинформации или кибератак ".
Однако Сэм Альтман не пожелал подписать открытое письмо. В этом отношении к нему присоединяется одно из самых известных имен в мире технологий, Билл Гейтс, сооснователь Microsoft и многолетний глава американской компании. Гейтс уже давно является одним из самых ярых сторонников достижений в области искусственного интеллекта и с большим энтузиазмом относится к последним достижениям в этой сфере. Вопреки тому, что говорится в этом открытом письме, Билл Гейтс считает, что упомянутая пауза продолжительностью не менее шести месяцев никоим образом не является решением проблем, возникающих в связи с развитием генеративного искусственного интеллекта. В интервью агентству Reuters он объясняет, что не верит, что "просьба к какой-либо конкретной группе сделать паузу решит проблемы ", а затем добавляет: "Я не очень понимаю, кто, по их мнению, остановится, или согласится ли каждая страна в мире, или зачем это делать"
Тем самым Гейтс указывает на проблему с осуществимостью паузы. Кем и как будет принято решение? Применяется ко всем странам мира? Ко всем частным компаниям? Основатель Microsoft признает проблемы, возникающие в связи с развитием искусственного интеллекта, и понимает, какие опасения это может вызвать. Однако он считает, что в этих вещах есть "огромная польза ", и говорит о "выявлении сложных областей ", а не о шестимесячном перерыве. Билл Гейтс даже считает, что искусственный интеллект - это не что иное, как величайшая компьютерная инновация последних сорока лет, инновация, которая должна помочь найти решения всех проблем человечества. В этом последнем вопросе мы не можем не видеть в Билле Гейтсе приверженца идеи решения проблем, но мы должны признать, что трудно представить, чтобы китайское, индийское или российское правительство взяло перерыв у думающих голов из США или Европы.
Non, cet extraterrestre ne viendra pas d'une planète lointaine - il sera né ici même sur Terre, éclos dans un laboratoire de recherche d'une grande université ou d'une grande entreprise. Je fais référence à la première intelligence artificielle générale (IAG) qui atteint (ou dépasse) la cognition au niveau humain.
Au moment où j'écris ces mots, des milliards sont dépensés pour donner vie à cet extraterrestre, car il serait considéré comme l'une des plus grandes réalisations technologiques de l'histoire de l'humanité. Mais contrairement à nos autres inventions, celle-ci aura son propre esprit, littéralement. Et s'il se comporte comme toutes les autres espèces intelligentes que nous connaissons, il fera passer ses propres intérêts en premier, travaillant à maximiser ses chances de survie.
L'IA à notre image
Doit-on craindre une intelligence supérieure mue par ses propres objectifs, valeurs et intérêts ? Beaucoup de gens rejettent cette question, croyant que nous allons construire des systèmes d'IA à notre image, en veillant à ce qu'ils pensent, ressentent et se comportent comme nous. Il est extrêmement peu probable que ce soit le cas.
Les esprits artificiels ne seront pas créés en écrivant des logiciels avec des règles soigneusement élaborées qui les font penser comme nous. Au lieu de cela, les ingénieurs alimentent des ensembles de données massifs dans des algorithmes simples qui ajustent automatiquement leurs propres paramètres, apportant des millions et des millions de minuscules changements à leur structure jusqu'à ce qu'une intelligence émerge - une intelligence avec des rouages internes qui sont bien trop complexes pour que nous puissions les comprendre.
Et non – lui fournir des données sur les humains ne le fera pas penser comme les humains. C'est une idée fausse courante - la fausse croyance qu'en entraînant une IA sur des données qui décrivent les comportements humains, nous nous assurerons qu'elle finira par penser, ressentir et agir comme nous le faisons. Ça ne sera pas.
Au lieu de cela, nous allons construire ces créatures IA pour connaître les humains, ne pas être humain. Et oui, ils nous connaîtront de fond en comble, capables de parler nos langues et d'interpréter nos gestes, de lire nos expressions faciales et de prédire nos actions. Ils comprendront comment nous prenons des décisions, bonnes et mauvaises, logiques et illogiques. Après tout, nous aurons passé des décennies à enseigner aux systèmes d'IA comment nous, les humains, nous comportons dans presque toutes les situations.
Mais profondément différent
Mais encore, leurs esprits ne seront rien comme les nôtres. Pour nous, ils nous sembleront omniscients, reliés à des capteurs distants de toutes sortes, en tous lieux, Arrival Mind, je décris AGI comme "ayant un milliard d'yeux et d'oreilles", car ses capacités de perception pourraient facilement s'étendre sur le globe. Nous, les humains, ne pouvons pas imaginer ce que cela ferait de percevoir notre monde d'une manière aussi vaste et holistique, et pourtant nous présumons d'une manière ou d'une autre qu'un esprit comme celui-ci partagera notre morale, nos valeurs et nos sensibilités. Ça ne sera pas.
Les esprits artificiels seront profondément différents de tous les cerveaux biologiques que nous connaissons sur Terre - de leur structure et fonctionnalité de base à leur physiologie et psychologie globales. Bien sûr, nous créerons des corps ressemblant à des humains pour que ces esprits extraterrestres habitent, mais ils ne seront guère plus que des façades robotiques pour nous sentir à l'aise en leur présence.
En fait, nous, les humains, travaillerons très dur pour que ces extraterrestres nous ressemblent et parlent comme nous, sourient et rient même comme nous, mais au fond de nous, ils ne seront en rien comme nous. Très probablement, leurs cerveaux vivront dans le cloud (entièrement ou partiellement) connectés à des caractéristiques et des fonctions à la fois à l'intérieur et à l'extérieur des formes humanoïdes que nous les personnifions.
Pourtant, la façade fonctionnera – nous n'aurons pas peur de ces extraterrestres – pas comme nous craindrions des créatures se précipitant vers nous dans un mystérieux vaisseau spatial. Nous pouvons même ressentir un sentiment de parenté , les considérant comme notre propre création, une manifestation de notre propre ingéniosité. Mais si nous mettons ces sentiments de côté, nous commençons à réaliser qu'une intelligence extraterrestre née ici est bien plus dangereuse que celles qui pourraient venir de loin.
Le danger intérieur
Après tout, un esprit extraterrestre construit ici saura tout de nous dès son arrivée, ayant été conçu pour comprendre les humains de fond en comble – optimisé pour ressentir nos émotions et anticiper nos actions, prédire nos sentiments, influencer nos croyances et influencer nos opinions. . Si les créatures qui foncent vers nous dans d'élégants vaisseaux spatiaux argentés avaient une connaissance aussi approfondie de nos comportements et de nos tendances, nous serions terrifiés.
L'IA peut déjà vaincre nos meilleurs joueurs dans les jeux les plus difficiles sur Terre. Mais vraiment, ces systèmes ne maîtrisent pas seulement les jeux d'échecs, de poker et de go, ils maîtrisent le jeu des humains , apprenant à prévoir avec précision nos actions et réactions, anticipant nos erreurs et exploitant nos faiblesses. Des chercheurs du monde entier développent déjà des systèmes d'IA pour nous surpasser, nous sur-négocier et nous sur-manœuvrer.
Pouvons-nous faire quelque chose pour nous protéger ?
Nous ne pouvons certainement pas empêcher l'IA de devenir plus puissante, car aucune innovation n'a jamais été contenue. Et tandis que certains s'efforcent de mettre en place des mesures de protection, nous ne pouvons pas supposer que cela suffira à éliminer la menace. En fait, un sondage réalisé par Pew Research indique que peu de professionnels pensent que l'industrie mettra en œuvre des pratiques « éthiques d'IA » significatives d'ici 2030.
Alors, comment pouvons-nous nous préparer à l'arrivée ?
La meilleure première étape consiste à réaliser que l'IAG se produira dans les décennies à venir et qu'il ne s'agira pas d'une version numérique de l'intelligence humaine. Ce sera une intelligence extraterrestre aussi étrangère et dangereuse que si elle venait d'une planète lointaine.
Apporter de l'urgence à l'éthique de l'intelligence artificielle
Si nous posons le problème de cette façon, nous pourrions l'aborder de toute urgence, en poussant à réglementer les systèmes d'IA qui surveillent et manipulent le public, détectent nos émotions et anticipent nos comportements. De telles technologies peuvent ne pas sembler être une menace existentielle aujourd'hui, car elles sont principalement développées pour optimiser l'efficacité de la publicité, et non pour faciliter la domination du monde . Mais cela ne diminue pas le danger - les technologies d'IA conçues pour analyser les sentiments humains et influencer nos croyances peuvent facilement être utilisées contre nous comme armes de persuasion massive.
Nous devrions également être plus prudents lors de l'automatisation des décisions humaines. S'il est indéniable que l'IA peut aider à une prise de décision efficace, nous devons toujours garder les humains au courant. Cela signifie utiliser l'IA pour améliorer l'intelligence humaine plutôt que de travailler pour la remplacer.
Que nous nous préparions ou non, des esprits extraterrestres se dirigent vers nous et ils pourraient facilement devenir nos rivaux, se disputant le même créneau au sommet de la chaîne alimentaire intellectuelle. Et bien qu'il y ait un effort sérieux dans la communauté de l'IA pour faire pression pour des technologies sûres , il y a aussi un manque d'urgence. C'est parce que trop d'entre nous croient à tort qu'une IA sensible créée par l'humanité sera en quelque sorte une branche de l'arbre humain, comme un descendant numérique qui partage un noyau très humain.
C'est un vœu pieux. Il est plus probable qu'un véritable AGI sera profondément différent de nous à presque tous les égards. Oui, il sera remarquablement doué pour prétendre être humain, mais sous une façade conviviale, chacun sera un esprit rival qui pense, ressent et agit comme aucune créature que nous ayons jamais rencontrée sur Terre. C'est maintenant qu'il faut se préparer.
Louis Rosenberg , PhD, est un pionnier de la technologie dans les domaines de la réalité virtuelle, de la réalité augmentée et de l'intelligence artificielle. Il est connu pour avoir développé le premier système de réalité augmentée pour l'US Air Force en 1992, pour avoir fondé la première société de réalité virtuelle Immersion Corp (Nasdaq IMMR) en 1993 et fondé la première société AR Outland Research en 2004. Il est actuellement fondateur et PDG d' Unanimous AI .
Réf :
https://www.theguardian.com/technology/2023/feb/17/i-want-to-destroy-whatever-i-want-bings-ai-chatbot-unsettles-us-reporter
https://www .washingtonpost.com/technology/2023/02/16/microsoft-bing-ai-chat-interview/
https://twitter.com/MarioNawfal/status/1628873898413400070
https://www.nytimes.com/2023/02/ 16/technology/bing-chatbot-microsoft-chatgpt.html
https://twitter.com/search?q=microsoft%20robot%20chatgpt&src=typed_query
https://twitter.com/uBF2fV1cVQxRjQo/status/1628658302153531394
C'est ainsi que la mise à l'échelle est importante . IPV6 complété par Le vrai bitcoin alias Bitcoin Satoshi Vision c'est à dire avec son protocole verrouillé alias Bitcoin Satoshi Vision aka BSV , peut être le cloisonnement d'hyper données synthétiques. Interrupteur. Turing peut s'adapter à l'incrémentation pour limiter les risques. Environnement contrôlé par la preuve de travail. C'est très loin d'être une blague. Le temps humain est compté. Il reste trop peu de temps. Les efforts doivent être réels et coordonnés. C'est pourquoi bitcoin_protocol . Preuve_d'existence.
2027
https://coingeek.com/how-to-create-artificial-life-inside-bitcoin/
https://www.youtube.com/playlist?list=PLTpDsXEwfAQqCZuR92h1qFv_d7Pnm2gFc
Non, cet extraterrestre ne viendra pas d'une planète lointaine - il sera né ici même sur Terre, éclos dans un laboratoire de recherche d'une grande université ou d'une grande entreprise. Je fais référence à la première intelligence artificielle générale (IAG) qui atteint (ou dépasse) la cognition au niveau humain.
Au moment où j'écris ces mots, des milliards sont dépensés pour donner vie à cet extraterrestre, car il serait considéré comme l'une des plus grandes réalisations technologiques de l'histoire de l'humanité. Mais contrairement à nos autres inventions, celle-ci aura son propre esprit, littéralement. Et s'il se comporte comme toutes les autres espèces intelligentes que nous connaissons, il fera passer ses propres intérêts en premier, travaillant à maximiser ses chances de survie.
L'IA à notre image
Doit-on craindre une intelligence supérieure mue par ses propres objectifs, valeurs et intérêts ? Beaucoup de gens rejettent cette question, croyant que nous allons construire des systèmes d'IA à notre image, en veillant à ce qu'ils pensent, ressentent et se comportent comme nous. Il est extrêmement peu probable que ce soit le cas.
Les esprits artificiels ne seront pas créés en écrivant des logiciels avec des règles soigneusement élaborées qui les font penser comme nous. Au lieu de cela, les ingénieurs alimentent des ensembles de données massifs dans des algorithmes simples qui ajustent automatiquement leurs propres paramètres, apportant des millions et des millions de minuscules changements à leur structure jusqu'à ce qu'une intelligence émerge - une intelligence avec des rouages internes qui sont bien trop complexes pour que nous puissions les comprendre.
Et non – lui fournir des données sur les humains ne le fera pas penser comme les humains. C'est une idée fausse courante - la fausse croyance qu'en entraînant une IA sur des données qui décrivent les comportements humains, nous nous assurerons qu'elle finira par penser, ressentir et agir comme nous le faisons. Ça ne sera pas.
Au lieu de cela, nous allons construire ces créatures IA pour connaître les humains, ne pas être humain. Et oui, ils nous connaîtront de fond en comble, capables de parler nos langues et d'interpréter nos gestes, de lire nos expressions faciales et de prédire nos actions. Ils comprendront comment nous prenons des décisions, bonnes et mauvaises, logiques et illogiques. Après tout, nous aurons passé des décennies à enseigner aux systèmes d'IA comment nous, les humains, nous comportons dans presque toutes les situations.
Mais profondément différent
Mais encore, leurs esprits ne seront rien comme les nôtres. Pour nous, ils nous sembleront omniscients, reliés à des capteurs distants de toutes sortes, en tous lieux, Arrival Mind, je décris AGI comme "ayant un milliard d'yeux et d'oreilles", car ses capacités de perception pourraient facilement s'étendre sur le globe. Nous, les humains, ne pouvons pas imaginer ce que cela ferait de percevoir notre monde d'une manière aussi vaste et holistique, et pourtant nous présumons d'une manière ou d'une autre qu'un esprit comme celui-ci partagera notre morale, nos valeurs et nos sensibilités. Ça ne sera pas.
Les esprits artificiels seront profondément différents de tous les cerveaux biologiques que nous connaissons sur Terre - de leur structure et fonctionnalité de base à leur physiologie et psychologie globales. Bien sûr, nous créerons des corps ressemblant à des humains pour que ces esprits extraterrestres habitent, mais ils ne seront guère plus que des façades robotiques pour nous sentir à l'aise en leur présence.
En fait, nous, les humains, travaillerons très dur pour que ces extraterrestres nous ressemblent et parlent comme nous, sourient et rient même comme nous, mais au fond de nous, ils ne seront en rien comme nous. Très probablement, leurs cerveaux vivront dans le cloud (entièrement ou partiellement) connectés à des caractéristiques et des fonctions à la fois à l'intérieur et à l'extérieur des formes humanoïdes que nous les personnifions.
Pourtant, la façade fonctionnera – nous n'aurons pas peur de ces extraterrestres – pas comme nous craindrions des créatures se précipitant vers nous dans un mystérieux vaisseau spatial. Nous pouvons même ressentir un sentiment de parenté , les considérant comme notre propre création, une manifestation de notre propre ingéniosité. Mais si nous mettons ces sentiments de côté, nous commençons à réaliser qu'une intelligence extraterrestre née ici est bien plus dangereuse que celles qui pourraient venir de loin.
Le danger intérieur
Après tout, un esprit extraterrestre construit ici saura tout de nous dès son arrivée, ayant été conçu pour comprendre les humains de fond en comble – optimisé pour ressentir nos émotions et anticiper nos actions, prédire nos sentiments, influencer nos croyances et influencer nos opinions. . Si les créatures qui foncent vers nous dans d'élégants vaisseaux spatiaux argentés avaient une connaissance aussi approfondie de nos comportements et de nos tendances, nous serions terrifiés.
L'IA peut déjà vaincre nos meilleurs joueurs dans les jeux les plus difficiles sur Terre. Mais vraiment, ces systèmes ne maîtrisent pas seulement les jeux d'échecs, de poker et de go, ils maîtrisent le jeu des humains , apprenant à prévoir avec précision nos actions et réactions, anticipant nos erreurs et exploitant nos faiblesses. Des chercheurs du monde entier développent déjà des systèmes d'IA pour nous surpasser, nous sur-négocier et nous sur-manœuvrer.
Pouvons-nous faire quelque chose pour nous protéger ?
Nous ne pouvons certainement pas empêcher l'IA de devenir plus puissante, car aucune innovation n'a jamais été contenue. Et tandis que certains s'efforcent de mettre en place des mesures de protection, nous ne pouvons pas supposer que cela suffira à éliminer la menace. En fait, un sondage réalisé par Pew Research indique que peu de professionnels pensent que l'industrie mettra en œuvre des pratiques « éthiques d'IA » significatives d'ici 2030.
Alors, comment pouvons-nous nous préparer à l'arrivée ?
La meilleure première étape consiste à réaliser que l'IAG se produira dans les décennies à venir et qu'il ne s'agira pas d'une version numérique de l'intelligence humaine. Ce sera une intelligence extraterrestre aussi étrangère et dangereuse que si elle venait d'une planète lointaine.
Apporter de l'urgence à l'éthique de l'intelligence artificielle
Si nous posons le problème de cette façon, nous pourrions l'aborder de toute urgence, en poussant à réglementer les systèmes d'IA qui surveillent et manipulent le public, détectent nos émotions et anticipent nos comportements. De telles technologies peuvent ne pas sembler être une menace existentielle aujourd'hui, car elles sont principalement développées pour optimiser l'efficacité de la publicité, et non pour faciliter la domination du monde . Mais cela ne diminue pas le danger - les technologies d'IA conçues pour analyser les sentiments humains et influencer nos croyances peuvent facilement être utilisées contre nous comme armes de persuasion massive.
Nous devrions également être plus prudents lors de l'automatisation des décisions humaines. S'il est indéniable que l'IA peut aider à une prise de décision efficace, nous devons toujours garder les humains au courant. Cela signifie utiliser l'IA pour améliorer l'intelligence humaine plutôt que de travailler pour la remplacer.
Que nous nous préparions ou non, des esprits extraterrestres se dirigent vers nous et ils pourraient facilement devenir nos rivaux, se disputant le même créneau au sommet de la chaîne alimentaire intellectuelle. Et bien qu'il y ait un effort sérieux dans la communauté de l'IA pour faire pression pour des technologies sûres , il y a aussi un manque d'urgence. C'est parce que trop d'entre nous croient à tort qu'une IA sensible créée par l'humanité sera en quelque sorte une branche de l'arbre humain, comme un descendant numérique qui partage un noyau très humain.
C'est un vœu pieux. Il est plus probable qu'un véritable AGI sera profondément différent de nous à presque tous les égards. Oui, il sera remarquablement doué pour prétendre être humain, mais sous une façade conviviale, chacun sera un esprit rival qui pense, ressent et agit comme aucune créature que nous ayons jamais rencontrée sur Terre. C'est maintenant qu'il faut se préparer.
Louis Rosenberg , PhD, est un pionnier de la technologie dans les domaines de la réalité virtuelle, de la réalité augmentée et de l'intelligence artificielle. Il est connu pour avoir développé le premier système de réalité augmentée pour l'US Air Force en 1992, pour avoir fondé la première société de réalité virtuelle Immersion Corp (Nasdaq IMMR) en 1993 et fondé la première société AR Outland Research en 2004. Il est actuellement fondateur et PDG d' Unanimous AI .
Réf :
https://www.theguardian.com/technology/2023/feb/17/i-want-to-destroy-whatever-i-want-bings-ai-chatbot-unsettles-us-reporter
https://www .washingtonpost.com/technology/2023/02/16/microsoft-bing-ai-chat-interview/
https://twitter.com/MarioNawfal/status/1628873898413400070
https://www.nytimes.com/2023/02/ 16/technology/bing-chatbot-microsoft-chatgpt.html
https://twitter.com/search?q=microsoft%20robot%20chatgpt&src=typed_query
https://twitter.com/uBF2fV1cVQxRjQo/status/1628658302153531394
C'est ainsi que la mise à l'échelle est importante . IPV6 complété par Le vrai bitcoin alias Bitcoin Satoshi Vision c'est à dire avec son protocole verrouillé alias Bitcoin Satoshi Vision aka BSV , peut être le cloisonnement d'hyper données synthétiques. Interrupteur. Turing peut s'adapter à l'incrémentation pour limiter les risques. Environnement contrôlé par la preuve de travail. C'est très loin d'être une blague. Le temps humain est compté. Il reste trop peu de temps. Les efforts doivent être réels et coordonnés. C'est pourquoi bitcoin_protocol . Preuve_d'existence.
2027
https://coingeek.com/how-to-create-artificial-life-inside-bitcoin/
https://www.youtube.com/playlist?list=PLTpDsXEwfAQqCZuR92h1qFv_d7Pnm2gFc