ГЛАВНАЯ // NEWS


Эксперты призвали защитить человечество от угрозы вымирания из-за искусственного интеллекта

Центр безопасности искусственного интеллекта (CAIS) в США и другие группы экспертов вместе предупредили , что развитие технологий ИИ грозит исчезновением человечества, и что необходимо принять меры для предотвращения такого сценария развития событий.

“Снижение риска вымирания, которое может произойти из-за ИИ, должно стать глобальным приоритетом наряду с другими угрозами, такими как пандемии и ядерная война”, – говорится в заявлении, опубликованном на сайте центра.

Документ подписали эксперты в области ИИ, а также специалисты в сфере информационных технологий, экономики, математики, философии. Среди них – гендиректор компании Open AI и программист Сэм Олтмен, один из разработчиков ИИ британский ученый Джеффри Хинтон.

На сайте центра подробно рассказывается о рисках, которые, по его мнению, связаны с искусственным интеллектом. Например:

ИИ может быть использован для создания автономного оружия или химических вооружений
ИИ может генерировать дезинформацию, которая может дестабилизировать общество и подорвать коллективное принятие решений
Власть над ИИ может сосредоточиться в руках немногих, что позволит “режимам навязывать узкие ценности через всепроникающий контроль и жесткую цензуру”
Ослабление человеческого потенциала, когда люди станут зависимы от ИИ “по аналогии со сценарием из фильма ” ВАЛЛ·И “”

Центр также предлагает несколько способов снижения рисков от ИИ, таких как:

Создание общих стандартов безопасности и этики для разработки и использования ИИ
Разработка механизмов контроля и ответственности за действия ИИ
Поддержка международного сотрудничества и диалога по вопросам ИИ
Образование и просвещение общественности о возможностях и опасностях ИИ

Это не первое обращение за последнее время, авторы которого говорят о возможных угрозах ИИ. В марте глава SpaceX, Tesla и Twitter Илон Маск, сооснователь Apple Стив Возняк и более 1000 экспертов и руководителей отрасли по развитию искусственного интеллекта подписали письмо с призывом приостановить разработку продвинутого ИИ до тех пор, пока не будут созданы, внедрены и проверены независимыми экспертами общие протоколы безопасности.

Однако не все специалисты разделяют страхи перед ИИ. Некоторые считают, что опасения переоценены и отвлекают от более актуальных проблем, таких как предвзятость или дискриминация в системах ИИ. Другие уверены, что текущий уровень развития ИИ не позволяет ему представлять серьезную угрозу для человечества.

Источник: SecurityLab


Powered by Отряд им. 7-го МАЯ