https://libeldoc.bsuir.by/handle/123456789/55562
Title: | Methods for Defending Deep Neural Networks Against Adversarial Attacks |
Other Titles: | Методы защиты глубоких нейронных сетей от враждебных атак |
Authors: | Himbitski, V. Varashevich, A. Kovalev, V. |
Keywords: | материалы конференций;deep neural networks;adversarial attack;autoencoder |
Issue Date: | 2024 |
Publisher: | БГУИР |
Citation: | Himbitski, V. Methods for Defending Deep Neural Networks Against Adversarial Attacks = Методы защиты глубоких нейронных сетей от враждебных атак / V. Himbitski, A. Varashevich, V. Kovalev // Открытые семантические технологии проектирования интеллектуальных систем = Open Semantic Technologies for Intelligent Systems (OSTIS) : сборник научных трудов / Белорусский государственный университет информатики и радиоэлектроники ; редкол.: В. В. Голенков [и др.]. – Минск, 2024. – Вып. 8. – С. 365–370. |
Abstract: | In this paper, Gradient-based adversarial attack methods on classifi cation neural networks for image processing are discussed. And also the archeitecture of neural network for defense against adversarial attacks is proposed. For the proposed neural network architecture, the dependence of the preprocessing quality of the attacked images on the training time and the number of trained parameters has been studied. |
Alternative abstract: | В данной статье рассматриваются методы градиентной атаки на классифицирующие нейронные сети для обработки изображений. А также предложена архитектура нейронной сети для защиты от злоумышленных атак. Для предложенной архитектуры нейронной сети исследована зависимость качества предварительной обработки атакуемых изображений от времени обучения и количества обучаемых параметров. |
URI: | https://libeldoc.bsuir.by/handle/123456789/55562 |
Appears in Collections: | OSTIS-2024 |
File | Description | Size | Format | |
---|---|---|---|---|
Methods for Defending.pdf | 199.76 kB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.