論文の概要: RobArch: Designing Robust Architectures against Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2301.03110v1
- Date: Sun, 8 Jan 2023 21:19:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 15:48:37.056162
- Title: RobArch: Designing Robust Architectures against Adversarial Attacks
- Title(参考訳): RobArch: 敵の攻撃に対してロバストなアーキテクチャを設計する
- Authors: ShengYun Peng, Weilin Xu, Cory Cornelius, Kevin Li, Rahul Duggal, Duen
Horng Chau and Jason Martin
- Abstract要約: アドリアトレーニングはディープニューラルネットワーク(DNN)の堅牢性を改善するための最も効果的なアプローチである
固定パラメータ予算下でのDNNアーキテクチャコンポーネントのロバスト性に関する大規模研究について述べる。
モデル開発者が深い洞察を得られるようにするための18の行動可能な堅牢なネットワーク設計ガイドラインを示します。
- 参考スコア(独自算出の注目度): 7.7720465119590845
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Adversarial Training is the most effective approach for improving the
robustness of Deep Neural Networks (DNNs). However, compared to the large body
of research in optimizing the adversarial training process, there are few
investigations into how architecture components affect robustness, and they
rarely constrain model capacity. Thus, it is unclear where robustness precisely
comes from. In this work, we present the first large-scale systematic study on
the robustness of DNN architecture components under fixed parameter budgets.
Through our investigation, we distill 18 actionable robust network design
guidelines that empower model developers to gain deep insights. We demonstrate
these guidelines' effectiveness by introducing the novel Robust Architecture
(RobArch) model that instantiates the guidelines to build a family of
top-performing models across parameter capacities against strong adversarial
attacks. RobArch achieves the new state-of-the-art AutoAttack accuracy on the
RobustBench ImageNet leaderboard. The code is available at
$\href{https://github.com/ShengYun-Peng/RobArch}{\text{this url}}$.
- Abstract(参考訳): adversarial trainingは、ディープニューラルネットワーク(dnn)の堅牢性を改善するための最も効果的なアプローチである。
しかしながら、敵対的トレーニングプロセスの最適化に関する大規模な研究と比較すると、アーキテクチャコンポーネントが堅牢性にどう影響するか、モデルキャパシティを制限することはめったにない。
したがって、頑丈さがどこから来たのかははっきりしない。
本研究は,DNNアーキテクチャコンポーネントの固定パラメータ予算下でのロバスト性に関する,最初の大規模体系的な研究である。
調査を通じて、モデル開発者が深い洞察を得るための18の行動可能な堅牢なネットワーク設計ガイドラインを抽出する。
これらのガイドラインの有効性を,強敵攻撃に対するパラメータ容量にわたってトップパフォーマンスモデルのファミリを構築するためのガイドラインをインスタンス化する,新しいロバストアーキテクチャ(robarch)モデルを導入することで実証する。
RobArchは、RobustBench ImageNetリーダボード上で、最先端のAutoAttackの新たな精度を実現している。
コードは$\href{https://github.com/ShengYun-Peng/RobArch}{\text{this url}}$で入手できる。
関連論文リスト
- Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Neural Architecture Design and Robustness: A Dataset [11.83842808044211]
ニューラルアーキテクチャ設計とロバストネス評価に関するデータベースを導入する。
我々は、これらのネットワークを、様々な共通の敵攻撃や汚職タイプで評価する。
ネットワークのトポロジを慎重に構築することは、その堅牢性に大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2023-06-11T16:02:14Z) - Revisiting Residual Networks for Adversarial Robustness: An
Architectural Perspective [22.59262601575886]
残余ネットワークに着目し、トポロジ、カーネルサイズ、アクティベーション、正規化といったアーキテクチャ設計をブロックレベルで検討する。
我々は、モデル容量の幅広い範囲にまたがる、対向的に頑健な残留ネットワークRobostResNetsのポートフォリオを提示する。
論文 参考訳(メタデータ) (2022-12-21T13:19:25Z) - RIBAC: Towards Robust and Imperceptible Backdoor Attack against Compact
DNN [28.94653593443991]
近年のバックドア攻撃は、ディープニューラルネットワーク(DNN)モデルのセキュリティに対する新たな脅威となっている。
本稿では,コンパクトDNNモデル(RIBAC)に対するロバストおよび非受容性バックドアアタックの研究と開発について述べる。
論文 参考訳(メタデータ) (2022-08-22T21:27:09Z) - Neural Architecture Search for Speech Emotion Recognition [72.1966266171951]
本稿では,SERモデルの自動構成にニューラルアーキテクチャサーチ(NAS)技術を適用することを提案する。
NASはモデルパラメータサイズを維持しながらSER性能(54.89%から56.28%)を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-03-31T10:16:10Z) - Exploring Architectural Ingredients of Adversarially Robust Deep Neural
Networks [98.21130211336964]
ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが知られている。
本稿では,ネットワーク幅と深さがDNNの強靭性に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2021-10-07T23:13:33Z) - RobustART: Benchmarking Robustness on Architecture Design and Training
Techniques [170.3297213957074]
ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
アーキテクチャ設計とトレーニングのテクニックが堅牢性にどのように影響するかに関する包括的な研究はない。
本稿では,ImageNet上での包括性調査ベンチマークを提案する。
論文 参考訳(メタデータ) (2021-09-11T08:01:14Z) - A Design Space Study for LISTA and Beyond [79.76740811464597]
近年では、反復アルゴリズムの展開による問題固有のディープネットワーク構築に大きな成功を収めている。
本稿では,深層ネットワークにおける設計アプローチとしてのアンローリングの役割について再考する。
スパースリカバリのためのlistaを代表例として,未ロールモデルに対する設計空間調査を初めて実施した。
論文 参考訳(メタデータ) (2021-04-08T23:01:52Z) - On Adversarial Robustness: A Neural Architecture Search perspective [20.478741635006113]
この研究は、アーキテクチャの観点から純粋に敵対的ロバスト性を理解するための最初の大規模研究である。
単純なアンサンブルによるDARTSの探索空間におけるランダムサンプリングにより,PGD攻撃に対するロバスト性を約12%向上できることを示す。
我々は, SoTA の精度向上に人気があるNASが, 対人訓練を一切行わないフリーアドオンとして, 対人精度を提供できることを示した。
論文 参考訳(メタデータ) (2020-07-16T16:07:10Z) - Improved Adversarial Training via Learned Optimizer [101.38877975769198]
対戦型トレーニングモデルの堅牢性を改善するための枠組みを提案する。
共学習のパラメータモデルの重み付けにより、提案するフレームワークは、更新方向に対するロバスト性とステップの適応性を一貫して改善する。
論文 参考訳(メタデータ) (2020-04-25T20:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。