Ученые и разработчики опубликовали еще один манифест, призывающий внимательнее отнестись к разработке ИИ-технологий. Предыдущий манифест получился объемным и пространным, поэтому сейчас его сделали максимально конкретным и коротким.
Снижение риска вымирания человечества из-за ИИ-технологий должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война.
Манифест подписали десятки профессоров крупных университетов, разработчики и CEO компаний, в том числе Сэм Альтман, CEO Open AI, и Демис Хассабис, CEO, Google DeepMind.
Антон Горелкин, депутат фракции «Единая Россия» в Госдуме прокомментировал манифест так:
Я, например, полностью разделяю мысль о том, что бесконтрольное развитие ИИ-технологий недопустимо. У любого «черного ящика» должен быть набор настроек и аварийный стоп-кран на случай, если что-то пойдет не так. Но когда создатели самых продвинутых нейросетевых инструментов вдруг заявляют о рисках вымирания всего человечества, у меня сразу возникает вопрос: почему бы им не внедрить нужные ограничители в свои продукты вместо манифестов?
Напомним, Google представил Soundstorm, AI-модель для эффективной и неавторегрессивной генерации звука. SoundStorm умеет синтезировать высококачественные и естественные диалоги.