論文の概要: A Survey of Robust Adversarial Training in Pattern Recognition:
Fundamental, Theory, and Methodologies
- arxiv url: http://arxiv.org/abs/2203.14046v1
- Date: Sat, 26 Mar 2022 11:00:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-29 13:37:20.974869
- Title: A Survey of Robust Adversarial Training in Pattern Recognition:
Fundamental, Theory, and Methodologies
- Title(参考訳): パターン認識におけるロバスト反転訓練に関する調査--基礎,理論,方法論
- Authors: Zhuang Qian, Kaizhu Huang, Qiu-Feng Wang, Xu-Yao Zhang
- Abstract要約: 近年の研究では、ニューラルネットワークは、敵対的な例と呼ばれる、知覚不能に摂動する入力サンプルによって容易に騙されることが示されている。
このようなセキュリティの脆弱性は、ニューラルネットワークの膨大な応用により、現実世界の脅威がもたらされる可能性があるため、近年、大きな研究結果をもたらしている。
特にパターン認識における敵の例に対する頑健性の問題に対処するために、頑健な敵の訓練が主流となっている。
- 参考スコア(独自算出の注目度): 26.544748192629367
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In the last a few decades, deep neural networks have achieved remarkable
success in machine learning, computer vision, and pattern recognition. Recent
studies however show that neural networks (both shallow and deep) may be easily
fooled by certain imperceptibly perturbed input samples called adversarial
examples. Such security vulnerability has resulted in a large body of research
in recent years because real-world threats could be introduced due to vast
applications of neural networks. To address the robustness issue to adversarial
examples particularly in pattern recognition, robust adversarial training has
become one mainstream. Various ideas, methods, and applications have boomed in
the field. Yet, a deep understanding of adversarial training including
characteristics, interpretations, theories, and connections among different
models has still remained elusive. In this paper, we present a comprehensive
survey trying to offer a systematic and structured investigation on robust
adversarial training in pattern recognition. We start with fundamentals
including definition, notations, and properties of adversarial examples. We
then introduce a unified theoretical framework for defending against
adversarial samples - robust adversarial training with visualizations and
interpretations on why adversarial training can lead to model robustness.
Connections will be also established between adversarial training and other
traditional learning theories. After that, we summarize, review, and discuss
various methodologies with adversarial attack and defense/training algorithms
in a structured way. Finally, we present analysis, outlook, and remarks of
adversarial training.
- Abstract(参考訳): 過去数十年間、ディープニューラルネットワークは機械学習、コンピュータビジョン、パターン認識において顕著な成功を収めてきた。
しかし、最近の研究では、ニューラルネットワーク(浅層と深層の両方)は、逆の例と呼ばれる非知覚的な入力サンプルによって容易に騙される可能性があることが示されている。
このようなセキュリティ上の脆弱性は、ニューラルネットワークの膨大な応用によって現実世界の脅威がもたらされる可能性があるため、近年では大きな研究結果となっている。
特にパターン認識における強靭性問題に対処するため,頑健な対人訓練が主流となっている。
様々なアイデア、手法、応用がこの分野で盛り上がっている。
しかし、異なるモデル間の特性、解釈、理論、接続を含む敵対的訓練の深い理解はいまだに解明されていない。
本稿では,パターン認識におけるロバストな敵対的トレーニングに関する体系的かつ構造化された調査を行う。
まずは、定義、記法、逆例の性質などの基本から始める。
次に,敵のサンプルから防御するための統一的な理論的枠組み,すなわち,敵のトレーニングがモデルロバスト性をもたらす理由に関する可視化と解釈を紹介する。
敵の訓練と他の伝統的な学習理論とのつながりも確立する。
その後、敵攻撃や防衛訓練アルゴリズムによる様々な手法を構造化された方法でまとめ、検討し、議論する。
最後に, 対向訓練の分析, 展望, および注意点について述べる。
関連論文リスト
- Adversarial Training Can Provably Improve Robustness: Theoretical Analysis of Feature Learning Process Under Structured Data [38.44734564565478]
本稿では, 特徴学習理論の観点から, 対角的例と対角的学習アルゴリズムの理論的理解を提供する。
本手法は,頑健な特徴学習を効果的に強化し,非ロバストな特徴学習を抑えることができることを示す。
論文 参考訳(メタデータ) (2024-10-11T03:59:49Z) - A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - A reading survey on adversarial machine learning: Adversarial attacks
and their understanding [6.1678491628787455]
Adversarial Machine Learningは、ニューラルネットワークがほぼオリジナルの入力を誤って分類する原因となる脆弱性を悪用し、理解する。
敵攻撃と呼ばれるアルゴリズムのクラスが提案され、ニューラルネットワークが異なるドメインの様々なタスクを誤って分類する。
本稿は、既存の敵攻撃とその理解について、異なる視点で調査する。
論文 参考訳(メタデータ) (2023-08-07T07:37:26Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - A Comprehensive Study on Robustness of Image Classification Models:
Benchmarking and Rethinking [54.89987482509155]
ディープニューラルネットワークのロバスト性は、通常、敵の例、共通の腐敗、分散シフトに欠けている。
画像分類タスクにおいてtextbfARES-Bench と呼ばれる総合的なベンチマークロバスト性を確立する。
それに応じてトレーニング設定を設計することにより、新しい最先端の対人ロバスト性を実現する。
論文 参考訳(メタデータ) (2023-02-28T04:26:20Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - Searching for an Effective Defender: Benchmarking Defense against
Adversarial Word Substitution [83.84968082791444]
ディープニューラルネットワークは、意図的に構築された敵の例に対して脆弱である。
ニューラルNLPモデルに対する敵対的単語置換攻撃を防御する様々な方法が提案されている。
論文 参考訳(メタデータ) (2021-08-29T08:11:36Z) - When and How to Fool Explainable Models (and Humans) with Adversarial
Examples [1.439518478021091]
説明可能な機械学習モデルに対する敵攻撃の可能性と限界について検討する。
まず、逆例の概念を拡張して、説明可能な機械学習シナリオに適合する。
次に、説明可能なモデルに対して、逆例を生成できるかどうかを総合的に検討する枠組みを提案する。
論文 参考訳(メタデータ) (2021-07-05T11:20:55Z) - Optimism in the Face of Adversity: Understanding and Improving Deep
Learning through Adversarial Robustness [63.627760598441796]
深層学習における対角的強靭性の分野を詳細に検討する。
直感的な対向例と深層ニューラルネットワークの幾何学的関係を強調した。
セキュリティを超えた敵の堅牢性の主な応用について概説する。
論文 参考訳(メタデータ) (2020-10-19T16:03:46Z) - Detection Defense Against Adversarial Attacks with Saliency Map [7.736844355705379]
ニューラルネットワークは、人間の視覚にほとんど受容できない敵の例に弱いことがよく確認されている。
既存の防衛は、敵の攻撃に対するモデルの堅牢性を強化する傾向にある。
本稿では,新たな雑音と組み合わせた新しい手法を提案し,不整合戦略を用いて敵のサンプルを検出する。
論文 参考訳(メタデータ) (2020-09-06T13:57:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。