Byte/RE ИТ-издание

Руководство по безопасной разработке ИИ от «Лаборатории Касперского»

«Лаборатория Касперского» представила руководство по безопасной разработке и внедрению систем на основе искусственного интеллекта. Оно должно помочь организациям избежать киберрисков, связанных с применением технологий ИИ. В первую очередь документ предназначен для разработчиков, системных администраторов, DevOps-команд: в нем содержатся практические советы о том, как предотвращать или устранять технические недостатки и операционные риски.

Руководство создано совместно с ведущими научными экспертами и охватывает ключевые аспекты разработки, внедрения и использования систем ИИ, а также предлагает лучшие практики в области безопасности. Это важно для организаций, использующих сторонние модели ИИ и облачные системы: уязвимости в них могут привести к масштабным утечкам данных и нанести ущерб репутации. Рекомендации по безопасной разработке также помогут развертывать ИИ-системы в соответствии с ESG-принципами и международными стандартами.

«Лаборатория Касперского» предлагает следующие принципы для повышения безопасности систем на основе ИИ.

Информирование о киберугрозах и обучение – руководство организаций должно быть осведомлено об угрозах безопасности, связанных с использованием ИИ, и регулярно проводить специализированное обучение для сотрудников. Люди, работающие в компании, должны знать, какие методы используют злоумышленники для атак на системы ИИ, а обучающие программы необходимо постоянно обновлять, чтобы информация об угрозах была актуальной.

Моделирование угроз и оценка рисков – моделирование позволит заблаговременно выявлять и снижать риски, находить и устранять уязвимости на ранних этапах ИИ-разработки. «Лаборатория Касперского» предлагает использовать уже принятые методологии оценки рисков (например, STRIDE, OWASP), чтобы обнаруживать угрозы в сфере ИИ, например нецелевое использование моделей, применение нерелевантных данных для обучения модели, системные недостатки.

Безопасность облачной инфраструктуры – системы ИИ часто развертывают в облачных средах, и это требует строгих мер защиты, таких как шифрование, сегментация сети и двухфакторная аутентификация. «Лаборатория Касперского» предлагает следовать принципу нулевого доверия (т. е. по умолчанию не доверять никаким пользователям или устройствам), применять защищенные каналы связи и регулярно обновлять инфраструктуру, чтобы снижать риски взломов.

Защита цепочки поставок и данных – риски, связанные с внешними ИИ-компонентами и моделями, включают в числе прочего утечки данных и их продажу злоумышленниками. Чтобы этого избежать, необходимо строго соблюдать политику конфиденциальности и правила безопасности для всех участников цепочки поставок.

Тестирования и проверки – регулярные проверки моделей ИИ помогут убедиться в надежности их работы. «Лаборатория Касперского» рекомендует вести мониторинг их производительности, а также собирать отчеты об уязвимостях. Это позволит вовремя обнаруживать проблемы, связанные с изменением используемых моделью данных, а также атаки злоумышленников. Чтобы снизить риски, важно следить за актуальностью наборов данных и проверять логику принятия решений.

Защита от угроз, специфичных для ИИ-моделей, – для ИИ-систем характерны такие угрозы, как промпт-инъекции и другие вредоносные запросы, отравление учебных данных и т. д. Чтобы снизить риски, можно намеренно включать нерелевантные данные в процессе тренировки модели, чтобы научить ее распознавать их. Кроме того, рекомендуется использовать системы обнаружения аномалий, а также методы дистилляции знаний, которые помогают эффективнее обрабатывать информацию и придают ей большую устойчивость к манипуляциям.

Регулярное обновление – необходимо часто обновлять ИИ-библиотеки и фреймворки, чтобы вовремя устранять появляющиеся уязвимости. Чтобы повысить устойчивость таких систем, стоит участвовать в программах Bug Bounty, которые предполагают выплату вознаграждения сторонним специалистам за обнаружение уязвимостей, и регулярно обновлять облачные модели ИИ.

Соответствие международным стандартам – следование международным нормам, использование передовых практик, а также проверка ИИ-систем на соответствие законодательству помогут компаниям соблюдать требования в сфере этики и конфиденциальности данных.

Вам также могут понравиться