На главную страницу
О журнале План выхода Подписка Интернет-Магазин Реклама Контакты и реквизиты English На главную страницу Карта сайта Поиск по сайту Обратная связь

перейти к Содержанию номера
№ 2 (116)   март–апрель 2024 г.
Раздел: Безопасность компьютерных систем
Проблемы обеспечения безопасности нейросетей глубокого машинного обучения от бэкдор-атак
Security Issues of Deep Learning Neural Networks Machine Learning from Backdoor Attacks
Евгений Валерьевич Альтовский, член правления
Общественное движение «Информация для всех»
E. V. Altovsky, Board Member
NGO «Information for All»

Предыдущая статьяСледующая статья

УДК 681.3

Рассмотрены вопросы безопасного функционирования нейросетей глубокого машинного обучения (DNN) как сущности, являющейся одновременно и средством обеспечения информационной безопасности, и объектом кибератак, ландшафт которых постоянно расширяется. Главным механизмом настройки DNN на решение конкретной задачи является машинное обучение (МО). В то же время, МО является угрозой и одновременно уязвимостью DNN перед атаками, связанной с внедрением программных закладок — бэкдоров. В работе приведены примеры взлома (отравления) искусственного интеллекта (ИИ) на основе DNN по ряду систем распознавания образов. Представлены математические и структурные модели взлома ИИ на этапе МО и даны рекомендации по противостоянию бэкдор-атакам на основе технологий обрезки и тонкой настройки.

< ... >

Ключевые слова: искусственный интеллект, DNN-сети, машинное обучение, бэкдор-атаки, угрозы, уязвимости, взлом нейросетей, математические модели, организация атак, структурные модели, технологии обрезки и тонкой настройки

This paper considers the security issues of deep neural networks (DNN). DNN is an entity that is both a means of ensuring information security and an object of cyberattacks, the landscape of which is constantly expanding. The global mechanism for tuning DNNs to solve a specific task is machine learning (ML). At the same time, machine learning is a threat and a vulnerability of DNN to attacks in the form of backdoors. The paper presents examples of DNN-based artificial intelligence (AI) hacking (poisoning) on a number of pattern recognition systems. Mathematical and structural models of AI «hacking» at the training stage are presented and practical recommendations for countering backdoor attacks based on «pruning» and fine-tuning technologies are given.

Keywords: artificial intelligence, machine learning, DNN, backdoor attacks, threats, vulnerabilities, neural network hacking, pruning, fine-tuning
warning!   Полную версию статьи смотрите на страницах журнала «Защита информации. Инсайд»

Обращайтесь!!!
e-mail:    magazine@inside-zi.ru
тел.:        +7 (921) 958-25-50, +7 (911) 921-68-24


Предыдущая статья    СОДЕРЖАНИЕ НОМЕРА    Следующая статья

| Начало | О журнале | План выхода | Подписка | Интернет-магазин | Реклама | Координаты |

Copyright © 2004-2024 «Защита информации. Инсайд». Все права защищены
webmaster@inside-zi.ru

   Rambler's Top100    Технологии разведки для бизнеса