Дешевле – не значит лучше: как уязвимости DeepSeek уничтожают защиту бизнеса

Нейросеть DeepSeek всколыхнула Кремниевую долину, продемонстрировав, что мощные ИИ-модели можно создавать с минимальными затратами. Однако за этим успехом скрывается серьёзная проблема — уязвимость к взлому и манипуляциям.

Недавние исследования ( 1 , 2 , 3 ) показали, что модели DeepSeek более подвержены атакам, чем решения от крупных конкурентов, таких как OpenAI, Google и Microsoft. Это ставит под сомнение концепцию «демократизации» ИИ, ведь гиганты индустрии тратят миллиарды не только на производительность моделей, но и на их защиту. Компании, которые планируют внедрить DeepSeek в свои бизнес-процессы, должны учитывать эти риски.

Исследователи из LatticeFlow AI, специализирующиеся на проверке соответствия ИИ-моделей требованиям безопасности, установили , что версии R1 от DeepSeek оказались самыми уязвимыми среди ведущих моделей. При модификации открытых решений Meta (Llama) и Alibaba (Qwen) были нарушены встроенные защитные механизмы. В результате модели DeepSeek подвержены «перехвату целей» и утечке запросов, что позволяет хакерам заставить ИИ выдавать запрещённую информацию или игнорировать встроенные ограничения.

Генеральный директор LatticeFlow AI Петар Цанков предупреждает: если компании подключают ИИ к своим системам, они обычно добавляют собственные инструкции, например, скрывающие финансовые и прочие конфиденциальные данные. Однако модели DeepSeek могут не соблюдать эти ограничения при злонамеренной атаке, позволяя хакерам заполучить доступ к чувствительной информации.

Другие эксперты также находят уязвимости. По данным Adversa AI, модели DeepSeek легко поддаются взлому через

Источник: SecurityLab