DC Field | Value | Language |
dc.contributor.author | Himbitski, V. | - |
dc.contributor.author | Varashevich, A. | - |
dc.contributor.author | Kovalev, V. | - |
dc.coverage.spatial | Минск | en_US |
dc.date.accessioned | 2024-04-24T12:05:11Z | - |
dc.date.available | 2024-04-24T12:05:11Z | - |
dc.date.issued | 2024 | - |
dc.identifier.citation | Himbitski, V. Methods for Defending Deep Neural Networks Against Adversarial Attacks = Методы защиты глубоких нейронных сетей от враждебных атак / V. Himbitski, A. Varashevich, V. Kovalev // Открытые семантические технологии проектирования интеллектуальных систем = Open Semantic Technologies for Intelligent Systems (OSTIS) : сборник научных трудов / Белорусский государственный университет информатики и радиоэлектроники ; редкол.: В. В. Голенков [и др.]. – Минск, 2024. – Вып. 8. – С. 365–370. | en_US |
dc.identifier.uri | https://libeldoc.bsuir.by/handle/123456789/55562 | - |
dc.description.abstract | In this paper, Gradient-based adversarial attack methods on classifi cation neural networks for image
processing are discussed. And also the archeitecture of
neural network for defense against adversarial attacks is
proposed. For the proposed neural network architecture,
the dependence of the preprocessing quality of the attacked
images on the training time and the number of trained
parameters has been studied. | en_US |
dc.language.iso | en | en_US |
dc.publisher | БГУИР | en_US |
dc.subject | материалы конференций | en_US |
dc.subject | deep neural networks | en_US |
dc.subject | adversarial attack | en_US |
dc.subject | autoencoder | en_US |
dc.title | Methods for Defending Deep Neural Networks Against Adversarial Attacks | en_US |
dc.title.alternative | Методы защиты глубоких нейронных сетей от враждебных атак | en_US |
dc.type | Article | en_US |
local.description.annotation | В данной статье рассматриваются методы градиентной атаки на классифицирующие нейронные сети для
обработки изображений. А также предложена архитектура нейронной сети для защиты от злоумышленных
атак. Для предложенной архитектуры нейронной сети
исследована зависимость качества предварительной
обработки атакуемых изображений от времени обучения и количества обучаемых параметров. | en_US |
Appears in Collections: | OSTIS-2024
|