論文の概要: Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey
- arxiv url: http://arxiv.org/abs/2303.06302v1
- Date: Sat, 11 Mar 2023 04:19:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 19:45:39.458632
- Title: Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey
- Title(参考訳): 機械学習ネットワークにおける敵対的攻撃と防御--現代調査
- Authors: Yulong Wang, Tong Sun, Shenghong Li, Xin Yuan, Wei Ni, Ekram Hossain,
H. Vincent Poor
- Abstract要約: 機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
- 参考スコア(独自算出の注目度): 114.17568992164303
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks and defenses in machine learning and deep neural network
have been gaining significant attention due to the rapidly growing applications
of deep learning in the Internet and relevant scenarios. This survey provides a
comprehensive overview of the recent advancements in the field of adversarial
attack and defense techniques, with a focus on deep neural network-based
classification models. Specifically, we conduct a comprehensive classification
of recent adversarial attack methods and state-of-the-art adversarial defense
techniques based on attack principles, and present them in visually appealing
tables and tree diagrams. This is based on a rigorous evaluation of the
existing works, including an analysis of their strengths and limitations. We
also categorize the methods into counter-attack detection and robustness
enhancement, with a specific focus on regularization-based methods for
enhancing robustness. New avenues of attack are also explored, including
search-based, decision-based, drop-based, and physical-world attacks, and a
hierarchical classification of the latest defense methods is provided,
highlighting the challenges of balancing training costs with performance,
maintaining clean accuracy, overcoming the effect of gradient masking, and
ensuring method transferability. At last, the lessons learned and open
challenges are summarized with future research opportunities recommended.
- Abstract(参考訳): 機械学習とディープニューラルネットワークにおける敵対的攻撃と防御は、インターネットにおけるディープラーニングの急速に成長した応用と関連するシナリオによって、大きな注目を集めている。
本調査は,深層ニューラルネットワークに基づく分類モデルに焦点をあてた,敵対的攻撃・防御技術の最近の進歩の概要を提供する。
具体的には,最近の攻撃手法の包括的分類を行い,攻撃原理に基づいた最先端の防御手法を視覚的にアピールする表や木図に提示する。
これは既存の作品の強みと限界の分析を含む厳密な評価に基づいている。
また,本手法を,正則化に基づくロバスト性向上手法を中心に,反撃検出とロバスト性向上に分類する。
サーチベース、決定ベース、ドロップベース、物理ワールド攻撃など、新たな攻撃方法も検討され、最新の防御方法の階層的分類が提供され、トレーニングコストとパフォーマンスのバランス、クリーンな精度の維持、勾配マスクの効果の克服、メソッド転送可能性の確保といった課題が強調されている。
最後に、学んだ教訓とオープンチャレンジは、将来の研究機会として推奨されている。
関連論文リスト
- Physical Adversarial Attacks For Camera-based Smart Systems: Current
Trends, Categorization, Applications, Research Challenges, and Future Outlook [2.1771693754641013]
本研究の目的は,身体的敵意攻撃の概念を深く理解し,その特徴を分析し,特徴を識別することである。
本稿では, 対象タスクに応じて異なるアプリケーションで分類した, 様々な物理的敵攻撃手法について検討する。
本研究は,これらの攻撃手法の有効性,ステルス性,ロバスト性の観点から評価する。
論文 参考訳(メタデータ) (2023-08-11T15:02:19Z) - A reading survey on adversarial machine learning: Adversarial attacks
and their understanding [6.1678491628787455]
Adversarial Machine Learningは、ニューラルネットワークがほぼオリジナルの入力を誤って分類する原因となる脆弱性を悪用し、理解する。
敵攻撃と呼ばれるアルゴリズムのクラスが提案され、ニューラルネットワークが異なるドメインの様々なタスクを誤って分類する。
本稿は、既存の敵攻撃とその理解について、異なる視点で調査する。
論文 参考訳(メタデータ) (2023-08-07T07:37:26Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Adversarial Machine Learning In Network Intrusion Detection Domain: A
Systematic Review [0.0]
ディープラーニングモデルは、誤った分類決定を行うためにモデルを誤解させる可能性のあるデータインスタンスに対して脆弱であることがわかった。
本調査では,ネットワーク侵入検出分野における敵機械学習のさまざまな側面を利用した研究について検討する。
論文 参考訳(メタデータ) (2021-12-06T19:10:23Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Searching for an Effective Defender: Benchmarking Defense against
Adversarial Word Substitution [83.84968082791444]
ディープニューラルネットワークは、意図的に構築された敵の例に対して脆弱である。
ニューラルNLPモデルに対する敵対的単語置換攻撃を防御する様々な方法が提案されている。
論文 参考訳(メタデータ) (2021-08-29T08:11:36Z) - Unknown Presentation Attack Detection against Rational Attackers [6.351869353952288]
プレゼンテーション攻撃検出とマルチメディア法医学は、まだ実生活環境での攻撃に対して脆弱である。
既存のソリューションの課題には、未知の攻撃の検出、敵の設定での実行能力、数発の学習、説明可能性などがある。
新たな最適化基準が提案され,実環境におけるこれらのシステムの性能向上のための要件が定義されている。
論文 参考訳(メタデータ) (2020-10-04T14:37:10Z) - Adversarial Attacks against Face Recognition: A Comprehensive Study [3.766020696203255]
顔認識(FR)システムは優れた検証性能を示した。
近年の研究では、(深い)FRシステムは、知覚できない、または知覚できないが自然に見える対向的な入力画像に興味深い脆弱性を示すことが示されている。
論文 参考訳(メタデータ) (2020-07-22T22:46:00Z) - Adversarial Machine Learning Attacks and Defense Methods in the Cyber
Security Domain [58.30296637276011]
本稿では,機械学習技術に基づくセキュリティソリューションに対する敵攻撃に関する最新の研究を要約する。
サイバーセキュリティドメインでエンドツーエンドの敵攻撃を実装するという、ユニークな課題を議論するのは、これが初めてである。
論文 参考訳(メタデータ) (2020-07-05T18:22:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。