ГЛАВНАЯ // NEWS


Стив Возняк рассказал о самых опасных сценариях применения ИИ против людей и общества

Сооснователь Apple Стив Возняк предупредил о том, что искусственный интеллект (ИИ) может быть использован злоумышленниками для распространения мошенничества и дезинформации. Он призвал к регулированию сферы ИИ и обозначению контента, созданного с помощью ИИ.

Возняк, который вместе со скончавшимся Стивом Джобсом основал Apple и изобрёл первый компьютер компании, подписал в марте письмо, в котором более 1800 человек, включая главу Tesla Илона Маска, требовали приостановить разработку мощных систем ИИ на полгода из-за рисков для человечества. Однако некоторые подписанты оказались фальшивыми, а другие отказались от своей подписи.

В интервью BBC Возняк рассказал о преимуществах и опасностях ИИ. Он сказал, что ИИ настолько умён, что может быть использован теми, кто хочет обмануть вас о своей личности. Он привёл пример программы GPT-4, разработанной компанией OpenAI, которая может вести разговор как человек, сочинять песни и кратко излагать длинные документы.

Возняк не считает, что ИИ заменит людей, потому что ему не хватает эмоций, но предупредил, что он сделает злоумышленников более убедительными, потому что программы типа ChatGPT могут создавать тексты, которые “звучат так умно”. Он посчитал, что ответственность за контент, сгенерированный ИИ, лежит на тех, кто его публикует: “Человек должен нести ответственность за то, что генерирует ИИ”.

Он также призвал регуляторов привлечь к ответственности крупные технологические компании, которые “думают, что могут делать всё, что угодно”, но выразил сомнение в том, что регуляторы справятся с этой задачей. “Силы, которые движутся деньгами, обычно побеждают, что довольно грустно”, – сказал он.

Возняк сказал, что “мы не можем остановить технологию”, но добавил, что мы можем образовывать людей и учить их распознавать мошенничество и злонамеренные попытки украсть личную информацию.

Глава Apple Тим Кук также высказался осторожно по поводу ИИ на прошлой неделе. Он сказал инвесторам, что важно быть “осмотрительными и продуманными” в подходе к ИИ. “Мы видим ИИ как огромный потенциал и будем продолжать внедрять его в наши продукты очень тщательно”, – сказал он.

Хинтон, один из основоположников искусственного интеллекта, также выразил свои опасения, что темпы улучшений могут представлять реальную угрозу для людей. Он сказал, что есть вероятность, что люди могут быть в конечном итоге контролируемы или даже уничтожены ИИ.

Искусственный интеллект — это моделирование процессов человеческого мозга компьютерными системами. ИИ включает в себя экспертные системы, обработку естественного языка, машинное обучение, компьютерное зрение и другие области. ИИ может быть использован для различных целей, в том числе для повышения эффективности и безопасности бизнеса, образования, медицины и других сфер.

Однако ИИ также представляет ряд угроз для человечества. Исследователи и эксперты по кибербезопасности предупреждают, что ИИ может быть использован злоумышленниками для распространения мошенничества, дезинформации, шантажа и других видов киберпреступности. Кроме того, ИИ может нарушать права и свободы человека, в том числе конфиденциальность, неприкосновенность частной жизни и самоопределение.

Необходимо разрабатывать и применять ИИ с учетом этических принципов и правовых норм. Некоторые страны и организации уже приняли или разработали документы по регулированию ИИ, например, Европейский союз, США, Китай и ООН. Однако эти документы не всегда согласованы между собой и не всегда учитывают специфику разных отраслей и регионов.

Также важно проводить диалог между всеми заинтересованными сторонами: государствами, бизнесом, наукой, общественностью и экспертами по ИИ. Такой диалог поможет выработать общие стандарты и рекомендации по развитию и использованию ИИ в интересах человека и общества.

Источник: SecurityLab


Powered by Отряд им. 7-го МАЯ