ГЛАВНАЯ // NEWS


Искусственный интеллект как угроза выживанию: Юдковский предлагает авиаудары по ЦОДам

Эксперт в области искусственного интеллекта Елиэзер Юдковский обратился с призывом к ограничению вычислительных мощностей для обучения ИИ на глобальном уровне. Юдковский предложил уничтожение высокопроизводительных ЦОД, если какая-либо страна стремится создать подобные мощности. Разработчики должны ограничить мощности ИИ, чтобы тот не стал опасностью для человечества или других форм жизни. Юдковский опубликовал статью в Time Magazine, выражая свою обеспокоенность.

Источник: SecurityLab


Powered by Отряд им. 7-го МАЯ