Среди подписантов также значатся Стив Возняк и Тристан Харрис (из Центра гуманных технологий). Письмо призывает (https://www.forbes.ru/tekhnologii/486841-mask-i-voznak-prizvali-priostanovit-obucenie-sistem-ii-iz-za-riska-dla-obsestva) приостановить на шесть месяцев разработку систем искусственного интеллекта мощнее GPT-4. Прочитать документ можно здесь. (https://futureoflife.org/open-letter/pause-giant-ai-experiments/)
Авторы письма пишут, что современные системы ИИ «становятся конкурентоспособными [человеку] в решении общих задач», и просят задать самим себе вопросы: «должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и неправдой? должны ли мы автоматизировать все рабочие места, в том числе интересные [для каждого]? должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить, сделать нас ненужными и заменить нас? должны ли мы рисковать потерей контроля над нашей цивилизацией?».
Подписанты полагают, что доверять разработку ИИ «неизбранным лидерам технологий» нельзя, их нужно создавать с уверенностью, что технология даст «положительный эффект», а «риски будут управляемы».
В письме без указания названий говорится о «лабораториях ИИ», где создаются «малопонятные и непредсказуемые» даже создателям «мощные цифровые умы». Пауза в разработке, о которой заявляют подписанты, должна быть «общедоступной, поддающейся проверке и включать всех ключевых участников». «Если указанную паузу нельзя сделать быстро, правительства должны вмешаться и ввести мораторий», — считают они.
Авторы письма пишут, что современные системы ИИ «становятся конкурентоспособными [человеку] в решении общих задач», и просят задать самим себе вопросы: «должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и неправдой? должны ли мы автоматизировать все рабочие места, в том числе интересные [для каждого]? должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить, сделать нас ненужными и заменить нас? должны ли мы рисковать потерей контроля над нашей цивилизацией?».
Подписанты полагают, что доверять разработку ИИ «неизбранным лидерам технологий» нельзя, их нужно создавать с уверенностью, что технология даст «положительный эффект», а «риски будут управляемы».
В письме без указания названий говорится о «лабораториях ИИ», где создаются «малопонятные и непредсказуемые» даже создателям «мощные цифровые умы». Пауза в разработке, о которой заявляют подписанты, должна быть «общедоступной, поддающейся проверке и включать всех ключевых участников». «Если указанную паузу нельзя сделать быстро, правительства должны вмешаться и ввести мораторий», — считают они.