Перспективные ИИ начали сравнивать с мировыми бедствиями

analytics admin
Пользователь
16.06.2023, 17:32

Ведущие специалисты в сфере искусственного интеллекта заявили, что дальнейшее развитие этой технологии вполне способно представлять угрозу для всего человечества и в перспективе стать причиной его гибели. По их мнению, прогресс в сфере ИИ необходимо рассматривать как новый риск общемирового уровня, который не менее опасен, чем глобальные эпидемии или полномасштабный обмен ударами ядерным оружием.

Ранее Center for AI Safety (некоммерческая структура, занимающаяся исследованиями) опубликовала открытое послание, которые состоит из 22 слов. Под ним подписалось свыше 350 лиц, занимающих научные или инженерные должности в связанных с ИИ-проектами или возглавляющих работу над ними.

Из этого заявления исследует, что среди специалистов, работающих непосредственно в сфере искусственного интеллекта, а также политиков, представителей СМИ и общественных деятелей, с все большей частотой звучат разговоры о потенциальных опасностях этой технологии. Перечень связанных с нею рисков огромен, а многие из них нуждаются в срочном решении.

Мнения об опасности ИИ среди специалистов все еще разнятся

Эксперты заявляют, что сейчас периодически возникают ситуации, в которых сложно внятно донести беспокойство, связанное с некоторыми из самых больших опасностей, касающихся передовых систем искусственного интеллекта. Они верят, что открытое письмо позволит убрать это препятствие и начать открытую дискуссию.

Среди тех, кто подписал это послание, присутствуют главные исполнительные директора тройки ключевых фирм, занимающихся ИИ. Это Сэм Альтман, Демис Хассабис а также Дарио Амодеи Вместе с ними выступили известные ученые, разработки которых в значительной степени легли в основу современных ИИ.

Еще в начале весны 2023-го со стороны специалистов в этой области прозвучал массовый (подписалось более тысячи человек) призыв к временному прекращению развития новых языковых моделей, мощность которых вышке, чем у GPT-4. Позже ряд других экспертов в области искусственного интеллекта подверг эту идею критике.

Комментарии

Пока нет комментариев к этому посту.

Вверх