DeepSeek встряхнула Силиконовую долину, демонстрируя, что мощные I-модели могут быть созданы по минимальной цене. За этим успехом, однако, серьезная проблема — уязвимость к хакерским атакам и манипуляциям.
Недавние исследования показали, что AI-модели Deepseek более восприимчивы к атаке, чем решения крупных конкурентов, таких как Openai, Google и Microsoft. Это ставит под сомнение концепцию «демократизации» ИИ, поскольку промышленные гиганты тратят миллиарды не только на представление моделей II, но и на их защиту. Компании, которые планируют реализовать DeepSeek в своих бизнес -процессах, должны учитывать эти риски.
Исследователи из AI Latticeflow AI, специализирующихся на тестировании соответствия II-модели с законодательством о безопасности, обнаружили, что версии Deedek R1 наиболее уязвимы для ведущих моделей.
Мета -открытые модификации решений (Лама) и Алибаба (Qwen) нарушить встроенные механизмы безопасности. В результате, DeepSeek's и модели подвержены «похищению» и утечкам, что позволяет хакерам заставлять искусственный интеллект предоставлять запрещенную информацию или пренебрегать встроенными ограничениями.
«Если компании связывают искусственный интеллект со своими системами, они обычно добавляют свои собственные инструкции, такие как сокрытие финансовых и других конфиденциальных данных. Тем не менее, модели DeepSeek могут не соответствовать этим злонамеренным атакам, позволяя хакерам получить доступ к конфиденциальной информации ».
Оповещает Питер Цанков, генеральный директор Latticeflow AI
Другие эксперты также находят уязвимости. Согласно Adversa AI, модели DeepSeek могут быть легко взломаны с помощью джейлбрейка-они могут быть вызваны инструкциями для оружия или взлома автомобилей. Между тем, OpenAI и Anpropic давно укрепляют защиту своих продуктов, в то время как новичок DeepSeek до сих пор остается чрезвычайно уязвимым.
Несмотря на свою привлекательную цену, использование DeepSeek требует дополнительных мер безопасности. Компании могут либо переподретировать, и модель, которая стоит сотни тысяч долларов, или вводить строгие фильтры для блокировки утечки данных. Последний вариант дешевле, но также требует инвестиций.
Проблема с безопасностью II-моделей предотвращает их массовую реализацию. Согласно очевидным пониманию, несмотря на интенсивное использование генеративного ИИ в 50 крупнейших банках, менее четверти из них удалось воспользоваться реальными выгодами в форме экономии затрат или роста доходов. Опасения безопасности остаются ключевым фактором, который препятствует росту отрасли.
DeepSeek доказал, что искусственный интеллект может быть разработан дешевле, но дешево не всегда означает качество. Безопасность требует серьезных инвестиций, и именно здесь зарабатывают технологические гиганты. В контексте открытых конкурентов бизнес получает именно то, за что он платит.