論文の概要: Searching for Robust Neural Architectures via Comprehensive and Reliable
Evaluation
- arxiv url: http://arxiv.org/abs/2203.03128v1
- Date: Mon, 7 Mar 2022 04:45:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-08 14:30:26.764993
- Title: Searching for Robust Neural Architectures via Comprehensive and Reliable
Evaluation
- Title(参考訳): 包括的信頼性評価によるロバストニューラルネットワークの探索
- Authors: Jialiang Sun, Tingsong Jiang, Chao Li, Weien Zhou, Xiaoya Zhang, Wen
Yao, Xiaoqian Chen
- Abstract要約: 本稿では,ニューラルアーキテクチャの探索手法を応用した,AAD(Auto Adversarial Attack and Defense)と呼ばれる新しいフレームワークを提案する。
本研究では, 対向雑音, 自然騒音, システム騒音, 定量化指標の4種類のロバスト性評価について検討する。
CIFAR10データセットの実証結果は、探索された効率的な攻撃がより堅牢なアーキテクチャを見つけるのに役立つことを示している。
- 参考スコア(独自算出の注目度): 6.612134996737988
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural architecture search (NAS) could help search for robust network
architectures, where defining robustness evaluation metrics is the important
procedure. However, current robustness evaluations in NAS are not sufficiently
comprehensive and reliable. In particular, the common practice only considers
adversarial noise and quantified metrics such as the Jacobian matrix, whereas,
some studies indicated that the models are also vulnerable to other types of
noises such as natural noise. In addition, existing methods taking adversarial
noise as the evaluation just use the robust accuracy of the FGSM or PGD, but
these adversarial attacks could not provide the adequately reliable evaluation,
leading to the vulnerability of the models under stronger attacks. To alleviate
the above problems, we propose a novel framework, called Auto Adversarial
Attack and Defense (AAAD), where we employ neural architecture search methods,
and four types of robustness evaluations are considered, including adversarial
noise, natural noise, system noise and quantified metrics, thereby assisting in
finding more robust architectures. Also, among the adversarial noise, we use
the composite adversarial attack obtained by random search as the new metric to
evaluate the robustness of the model architectures. The empirical results on
the CIFAR10 dataset show that the searched efficient attack could help find
more robust architectures.
- Abstract(参考訳): neural architecture search (nas)はロバストなネットワークアーキテクチャを検索するのに役立ち、ロバスト性評価メトリクスを定義することが重要な手順である。
しかし、NASの現在の堅牢性評価は十分に包括的で信頼性がない。
特に、一般的な慣習は逆雑音とジャコビアン行列のような定量化指標のみを考慮し、一方でモデルが自然雑音のような他の種類のノイズにも脆弱であることを示す研究もある。
さらに, 既存手法ではFGSMやPGDの頑健な精度しか評価できないが, これらの手法では十分な信頼性が得られず, より強力な攻撃下でのモデルの脆弱性が生じる。
上記の問題を緩和するために,我々は,ニューラルネットワーク探索手法を用いた「オート・アドバイサル・アタック・ディフェンス(AAAD)」と呼ばれる新しいフレームワークを提案し,より堅牢なアーキテクチャの発見を支援するために,敵対的ノイズ,自然騒音,システムノイズ,定量化メトリクスを含む4種類のロバストネス評価を検討する。
また, 対向雑音の中で, ランダム探索によって得られた複合対向攻撃を新しい指標として用いて, モデルアーキテクチャの堅牢性を評価する。
CIFAR10データセットの実証結果は、探索された効率的な攻撃がより堅牢なアーキテクチャを見つけるのに役立つことを示している。
関連論文リスト
- Hard Work Does Not Always Pay Off: Poisoning Attacks on Neural Architecture Search [20.258148613490132]
アーキテクチャ検索に使用するトレーニングデータに,データ中毒攻撃を注入する。
まず, 被害を誘発し, 準最適建築を創出する有害なサンプルを作成するための攻撃目標を定義した。
攻撃者が使用可能な手法として, 被毒試料の製作コストを大幅に削減する手法を提案する。
論文 参考訳(メタデータ) (2024-05-09T19:55:07Z) - RobustMQ: Benchmarking Robustness of Quantized Models [54.15661421492865]
量子化は、限られたリソースを持つデバイスにディープニューラルネットワーク(DNN)をデプロイする上で不可欠なテクニックである。
我々は、ImageNet上の様々なノイズ(障害攻撃、自然破壊、系統的なノイズ)に対する量子化モデルのロバスト性について、徹底的に評価した。
我々の研究は、モデルとその実世界のシナリオにおける展開の堅牢な定量化を推し進めることに貢献している。
論文 参考訳(メタデータ) (2023-08-04T14:37:12Z) - A Comprehensive Study on the Robustness of Image Classification and
Object Detection in Remote Sensing: Surveying and Benchmarking [17.012502610423006]
ディープニューラルネットワーク(DNN)は、リモートセンシング(RS)画像の解釈に広く応用されている。
従来の研究では、DNNは様々な種類のノイズ、特に敵対的なノイズに弱いことが示されている。
本研究は,RS課題における自然的頑健性と対角的頑健性の両方を包括的に検討した初めての事例である。
論文 参考訳(メタデータ) (2023-06-21T08:52:35Z) - Neural Architecture Design and Robustness: A Dataset [11.83842808044211]
ニューラルアーキテクチャ設計とロバストネス評価に関するデータベースを導入する。
我々は、これらのネットワークを、様々な共通の敵攻撃や汚職タイプで評価する。
ネットワークのトポロジを慎重に構築することは、その堅牢性に大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2023-06-11T16:02:14Z) - From Adversarial Arms Race to Model-centric Evaluation: Motivating a
Unified Automatic Robustness Evaluation Framework [91.94389491920309]
テキストの敵対攻撃は、セマンティック保存されているが、入力に誤解を招く摂動を加えることでモデルの弱点を発見することができる。
既存のロバストネス評価の実践は、包括的評価、非現実的評価プロトコル、無効な対人サンプルの問題を示す可能性がある。
我々は、敵攻撃の利点を活用するために、モデル中心の評価にシフトする統合された自動ロバストネス評価フレームワークを構築した。
論文 参考訳(メタデータ) (2023-05-29T14:55:20Z) - Efficient Search of Comprehensively Robust Neural Architectures via
Multi-fidelity Evaluation [1.9100854225243937]
マルチファイダリティ評価(ES-CRNA-ME)による包括的強靭性ニューラルアーキテクチャの効率的な探索法を提案する。
具体的には、まず、重み共有に基づくNAS法を用いて、複数のタイプの評価のもと、包括的に堅牢なアーキテクチャを探索する。
相関分析によりロバスト性評価の回数を削減し、同様の評価を取り入れ、評価コストを削減できる。
論文 参考訳(メタデータ) (2023-05-12T08:28:58Z) - A Comprehensive Study on Robustness of Image Classification Models:
Benchmarking and Rethinking [54.89987482509155]
ディープニューラルネットワークのロバスト性は、通常、敵の例、共通の腐敗、分散シフトに欠けている。
画像分類タスクにおいてtextbfARES-Bench と呼ばれる総合的なベンチマークロバスト性を確立する。
それに応じてトレーニング設定を設計することにより、新しい最先端の対人ロバスト性を実現する。
論文 参考訳(メタデータ) (2023-02-28T04:26:20Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Towards Adversarially Robust Deep Image Denoising [199.2458715635285]
本研究は,ディープ・イメージ・デノイザ(DID)の対角的ロバスト性について系統的に検討する。
本稿では,観測に基づくゼロ平均アタック(sc ObsAtk)という新たな敵攻撃を提案する。
DIDを頑健化するために,DIDと非対向雑音データとを併用したハイブリッド対向訓練(sc HAT)を提案する。
論文 参考訳(メタデータ) (2022-01-12T10:23:14Z) - Neural Architecture Dilation for Adversarial Robustness [56.18555072877193]
畳み込みニューラルネットワークの欠点は、敵の攻撃に弱いことである。
本稿では, 良好な精度を有する背骨CNNの対角的堅牢性を向上させることを目的とする。
最小限の計算オーバーヘッドの下では、拡張アーキテクチャはバックボーンCNNの標準的な性能と親和性が期待できる。
論文 参考訳(メタデータ) (2021-08-16T03:58:00Z) - DSRNA: Differentiable Search of Robust Neural Architectures [11.232234265070753]
ディープラーニングアプリケーションでは、ディープニューラルネットワークのアーキテクチャは高い精度を達成するために不可欠である。
堅牢なニューラルアーキテクチャの微分可能な探索方法を提案する。
我々の手法は、複数のNASベースラインよりも、様々なノルムバウンド攻撃に対して堅牢である。
論文 参考訳(メタデータ) (2020-12-11T04:52:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。