«Лаборатория Касперского» представила руководство по безопасной разработке ИИ

Цель документа — помочь организациям избежать киберрисков, связанных с применением ИИ-технологий.

«Лаборатория Касперского» представила руководство по безопасной разработке ИИ

«Лаборатория Касперского» представила руководство по безопасной разработке ИИ — документ предназначен для помощи организациям в избежании киберрисков, связанных с применением ИИ-технологий.

В первую очередь руководство предназначено для разработчиков, системных администраторов и DevOps-команд. В нём содержатся детальные практические советы о том, как предотвращать или устранять технические недостатки и операционные риски.

«Руководство создано совместно с ведущими научными экспертами. Оно охватывает ключевые аспекты разработки, внедрения и использования систем ИИ, а также предлагает лучшие практики в области безопасности. Это особенно важно для организаций, использующих сторонние модели ИИ и облачные системы: уязвимости в них могут привести к масштабным утечкам данных и нанести ущерб репутации»
— пресс-служба «Лаборатории Касперского»

«Лаборатория Касперского» предлагает следующие принципы для повышения безопасности систем на основе ИИ:

  • Информирование о киберугрозах и обучение
  • Моделирование угроз и оценка рисков
  • Безопасность облачной инфраструктуры
  • Защита цепочки поставок и данных
  • Тестирования и проверки
  • Защита от угроз, специфичных для ИИ-моделей
  • Регулярное обновление
  • Соответствие международным стандартам
«Растущее использование инструментов на основе ИИ делает обеспечение безопасности уже не просто желательным, а обязательным условием. Мы принимаем участие в многостороннем диалоге в этой сфере, чтобы выработать стандарты, которые помогут безопасно внедрять инновации и защититься от новых киберугроз»
— Юлия Шлычкова, вице-президент по связям с госорганами «Лаборатории Касперского»