Skip navigation
Please use this identifier to cite or link to this item: https://libeldoc.bsuir.by/handle/123456789/55562
Full metadata record
DC FieldValueLanguage
dc.contributor.authorHimbitski, V.-
dc.contributor.authorVarashevich, A.-
dc.contributor.authorKovalev, V.-
dc.coverage.spatialМинскen_US
dc.date.accessioned2024-04-24T12:05:11Z-
dc.date.available2024-04-24T12:05:11Z-
dc.date.issued2024-
dc.identifier.citationHimbitski, V. Methods for Defending Deep Neural Networks Against Adversarial Attacks = Методы защиты глубоких нейронных сетей от враждебных атак / V. Himbitski, A. Varashevich, V. Kovalev // Открытые семантические технологии проектирования интеллектуальных систем = Open Semantic Technologies for Intelligent Systems (OSTIS) : сборник научных трудов / Белорусский государственный университет информатики и радиоэлектроники ; редкол.: В. В. Голенков [и др.]. – Минск, 2024. – Вып. 8. – С. 365–370.en_US
dc.identifier.urihttps://libeldoc.bsuir.by/handle/123456789/55562-
dc.description.abstractIn this paper, Gradient-based adversarial attack methods on classifi cation neural networks for image processing are discussed. And also the archeitecture of neural network for defense against adversarial attacks is proposed. For the proposed neural network architecture, the dependence of the preprocessing quality of the attacked images on the training time and the number of trained parameters has been studied.en_US
dc.language.isoenen_US
dc.publisherБГУИРen_US
dc.subjectматериалы конференцийen_US
dc.subjectdeep neural networksen_US
dc.subjectadversarial attacken_US
dc.subjectautoencoderen_US
dc.titleMethods for Defending Deep Neural Networks Against Adversarial Attacksen_US
dc.title.alternativeМетоды защиты глубоких нейронных сетей от враждебных атакen_US
dc.typeArticleen_US
local.description.annotationВ данной статье рассматриваются методы градиентной атаки на классифицирующие нейронные сети для обработки изображений. А также предложена архитектура нейронной сети для защиты от злоумышленных атак. Для предложенной архитектуры нейронной сети исследована зависимость качества предварительной обработки атакуемых изображений от времени обучения и количества обучаемых параметров.en_US
Appears in Collections:OSTIS-2024

Files in This Item:
File Description SizeFormat 
Methods for Defending.pdf199.76 kBAdobe PDFView/Open
Show simple item record Google Scholar

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.