На главную страницу
О журнале План выхода Подписка Интернет-Магазин Реклама Контакты и реквизиты English На главную страницу Карта сайта Поиск по сайту Обратная связь

перейти к Содержанию номера
№ 4 (112)   июль–август 2023 г.
Раздел: Безопасность компьютерных систем
Атаки на модели данных систем машинного обучения
Attacks on Machine Learning Data Models
Наталья Максимовна Григорьева
ФГАОУ ВО «Санкт-Петербургский государственный электротехнический университет «ЛЭТИ» им. В. И. Ульянова (Ленина)»
N. M. Grigorieva
Saint-Petersburg State Electrotechnical University «LETI»
Сергей Анатольевич Петренко, доктор технических наук, профессор
ФГАОУ ВО «Санкт-Петербургский государственный электротехнический университет «ЛЭТИ» им. В. И. Ульянова (Ленина)»
S. A. Petrenko, PhD (Eng., Grand Doctor), Full Professor
Saint-Petersburg State Electrotechnical University «LETI»
Марина Ивановна Ожиганова, кандидат технических наук, доцент
Севастопольский государственный университет
M. I. Ozhiganova, PhD (Eng.), Associate Professor
Sevastopol State University

Предыдущая статьяСледующая статья

УДК 004.8

Зачастую разработчики для ускорения процесса разработки приложений цифровой экономики Российской Федерации используют модели машинного обучения, предобученные на больших объемах данных. Однако на практике такой подход небезопасен. Например, в отчете Национального института стандартов и технологий США (NIST) [1] наглядно показано, какие опасности здесь подстерегают разработчиков и конечных пользователей систем машинного обучения. В настоящей статье рассмотрены типовые атаки злоумышленников на модели систем машинного обучения и предложен ряд рекомендаций по эффективному противодействию этим атакам.

< ... >

Ключевые слова: искусственный интеллект, машинное обучение, системы машинного обучения, модели данных, тактики и техники злоумышленников, атаки злоумышленников, классификация атак на модели данных

Developers often use machine learning models pre-trained on large amounts of data to speed up the process of developing applications for the Digital Economy of the Russian Federation. However, this approach is not safe in practice. For example, in the report of the US National Institute of Standards and Technology, NIST [1], clearly it shows what dangers lie in wait for developers and end users of machine learning systems. This article discusses typical attacks by intruders on data models of machine learning systems and offers a number of recommendations for effectively counteracting these attacks.

Keywords: artificial intelligence, machine learning, machine learning systems, data models, attacker tactics and techniques, attacker attacks, classification of attacks on data models
warning!   Полную версию статьи смотрите на страницах журнала «Защита информации. Инсайд»

Обращайтесь!!!
e-mail:    magazine@inside-zi.ru
тел.:        +7 (921) 958-25-50, +7 (911) 921-68-24


Предыдущая статья    СОДЕРЖАНИЕ НОМЕРА    Следующая статья

| Начало | О журнале | План выхода | Подписка | Интернет-магазин | Реклама | Координаты |

Copyright © 2004-2024 «Защита информации. Инсайд». Все права защищены
webmaster@inside-zi.ru

   Rambler's Top100    Технологии разведки для бизнеса