論文の概要: Neural Architecture Dilation for Adversarial Robustness
- arxiv url: http://arxiv.org/abs/2108.06885v1
- Date: Mon, 16 Aug 2021 03:58:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-17 15:29:43.150979
- Title: Neural Architecture Dilation for Adversarial Robustness
- Title(参考訳): 対向ロバスト性のためのニューラル・アーキテクチャ・ディレーション
- Authors: Yanxi Li, Zhaohui Yang, Yunhe Wang, Chang Xu
- Abstract要約: 畳み込みニューラルネットワークの欠点は、敵の攻撃に弱いことである。
本稿では, 良好な精度を有する背骨CNNの対角的堅牢性を向上させることを目的とする。
最小限の計算オーバーヘッドの下では、拡張アーキテクチャはバックボーンCNNの標準的な性能と親和性が期待できる。
- 参考スコア(独自算出の注目度): 56.18555072877193
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the tremendous advances in the architecture and scale of convolutional
neural networks (CNNs) over the past few decades, they can easily reach or even
exceed the performance of humans in certain tasks. However, a recently
discovered shortcoming of CNNs is that they are vulnerable to adversarial
attacks. Although the adversarial robustness of CNNs can be improved by
adversarial training, there is a trade-off between standard accuracy and
adversarial robustness. From the neural architecture perspective, this paper
aims to improve the adversarial robustness of the backbone CNNs that have a
satisfactory accuracy. Under a minimal computational overhead, the introduction
of a dilation architecture is expected to be friendly with the standard
performance of the backbone CNN while pursuing adversarial robustness.
Theoretical analyses on the standard and adversarial error bounds naturally
motivate the proposed neural architecture dilation algorithm. Experimental
results on real-world datasets and benchmark neural networks demonstrate the
effectiveness of the proposed algorithm to balance the accuracy and adversarial
robustness.
- Abstract(参考訳): 過去数十年間の畳み込みニューラルネットワーク(CNN)のアーキテクチャとスケールの大幅な進歩により、特定のタスクにおける人間のパフォーマンスに容易に到達または超えることができる。
しかし、最近発見されたCNNの欠点は、敵の攻撃に弱いことである。
CNNの対向ロバスト性は、対向トレーニングによって改善できるが、標準精度と対向ロバスト性との間にはトレードオフがある。
本稿では,ニューラルネットワークの観点から,精度の高いバックボーンcnnの頑健性を改善することを目的とした。
最小限の計算オーバーヘッドの下では、拡張アーキテクチャの導入は、敵対的堅牢性を追求しながら、バックボーンCNNの標準的な性能と親和性が期待できる。
標準および逆誤差境界に関する理論的解析は、ニューラルネットワーク拡張アルゴリズムを自然に動機づける。
実世界のデータセットとベンチマークニューラルネットワークの実験結果から,提案アルゴリズムの有効性が実証された。
関連論文リスト
- Impact of White-Box Adversarial Attacks on Convolutional Neural Networks [0.6138671548064356]
本稿では,畳み込みニューラルネットワーク(CNN)のホワイトボックス攻撃に対する感受性について検討する。
本研究は、敵の脅威に対するCNNの堅牢性に関する知見を提供する。
論文 参考訳(メタデータ) (2024-10-02T21:24:08Z) - A Comprehensive Study on Robustness of Image Classification Models:
Benchmarking and Rethinking [54.89987482509155]
ディープニューラルネットワークのロバスト性は、通常、敵の例、共通の腐敗、分散シフトに欠けている。
画像分類タスクにおいてtextbfARES-Bench と呼ばれる総合的なベンチマークロバスト性を確立する。
それに応じてトレーニング設定を設計することにより、新しい最先端の対人ロバスト性を実現する。
論文 参考訳(メタデータ) (2023-02-28T04:26:20Z) - Differentiable Search of Accurate and Robust Architectures [22.435774101990752]
敵の訓練は 単純さと有効性から 注目を集めています
ディープニューラルネットワーク(DNN)は敵の攻撃に対して脆弱である。
本稿では,敵の訓練後に正確で堅牢なニューラルネットワークを自動検索するDSARAを提案する。
論文 参考訳(メタデータ) (2022-12-28T08:36:36Z) - Understanding Adversarial Robustness from Feature Maps of Convolutional
Layers [23.42376264664302]
ニューラルネットワークの摂動能力は、主にモデル容量と摂動能力の2つの要因に依存している。
畳み込み層の特徴マップからネットワークの摂動防止能力について検討する。
自然な精度と敵の堅牢性の両面での非自明な改善は、様々な攻撃・防御機構の下で達成できる。
論文 参考訳(メタデータ) (2022-02-25T00:14:59Z) - Exploring Architectural Ingredients of Adversarially Robust Deep Neural
Networks [98.21130211336964]
ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが知られている。
本稿では,ネットワーク幅と深さがDNNの強靭性に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2021-10-07T23:13:33Z) - AdvRush: Searching for Adversarially Robust Neural Architectures [17.86463546971522]
本稿では,ニューラルアーキテクチャ探索アルゴリズムAdvRushを提案する。
AdvRushは、よりスムーズな入力損失ランドスケープを持つ候補アーキテクチャを好む正規化器を通じて、対向的に堅牢なニューラルネットワークアーキテクチャの発見に成功した。
論文 参考訳(メタデータ) (2021-08-03T04:27:33Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Extreme Value Preserving Networks [65.2037926048262]
最近の証拠は、畳み込みニューラルネットワーク(CNN)がテクスチャに偏りがあることを示しており、CNNはテクスチャに逆らう摂動に対して損なわれない。
本稿では,SIFTの優れた特性を活用してCNNアーキテクチャを改良し,精度と堅牢性を向上させることを目的とする。
論文 参考訳(メタデータ) (2020-11-17T02:06:52Z) - Neural Networks with Recurrent Generative Feedback [61.90658210112138]
畳み込みニューラルネットワーク(CNN)でこの設計をインスタンス化する
実験では、標準ベンチマーク上の従来のフィードフォワードCNNに対して、CNN-Fは敵のロバスト性を大幅に改善した。
論文 参考訳(メタデータ) (2020-07-17T19:32:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。