論文の概要: Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey
- arxiv url: http://arxiv.org/abs/2303.06302v1
- Date: Sat, 11 Mar 2023 04:19:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 19:45:39.458632
- Title: Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey
- Title(参考訳): 機械学習ネットワークにおける敵対的攻撃と防御--現代調査
- Authors: Yulong Wang, Tong Sun, Shenghong Li, Xin Yuan, Wei Ni, Ekram Hossain,
H. Vincent Poor
- Abstract要約: 機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
- 参考スコア(独自算出の注目度): 114.17568992164303
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks and defenses in machine learning and deep neural network
have been gaining significant attention due to the rapidly growing applications
of deep learning in the Internet and relevant scenarios. This survey provides a
comprehensive overview of the recent advancements in the field of adversarial
attack and defense techniques, with a focus on deep neural network-based
classification models. Specifically, we conduct a comprehensive classification
of recent adversarial attack methods and state-of-the-art adversarial defense
techniques based on attack principles, and present them in visually appealing
tables and tree diagrams. This is based on a rigorous evaluation of the
existing works, including an analysis of their strengths and limitations. We
also categorize the methods into counter-attack detection and robustness
enhancement, with a specific focus on regularization-based methods for
enhancing robustness. New avenues of attack are also explored, including
search-based, decision-based, drop-based, and physical-world attacks, and a
hierarchical classification of the latest defense methods is provided,
highlighting the challenges of balancing training costs with performance,
maintaining clean accuracy, overcoming the effect of gradient masking, and
ensuring method transferability. At last, the lessons learned and open
challenges are summarized with future research opportunities recommended.
- Abstract(参考訳): 機械学習とディープニューラルネットワークにおける敵対的攻撃と防御は、インターネットにおけるディープラーニングの急速に成長した応用と関連するシナリオによって、大きな注目を集めている。
本調査は,深層ニューラルネットワークに基づく分類モデルに焦点をあてた,敵対的攻撃・防御技術の最近の進歩の概要を提供する。
具体的には,最近の攻撃手法の包括的分類を行い,攻撃原理に基づいた最先端の防御手法を視覚的にアピールする表や木図に提示する。
これは既存の作品の強みと限界の分析を含む厳密な評価に基づいている。
また,本手法を,正則化に基づくロバスト性向上手法を中心に,反撃検出とロバスト性向上に分類する。
サーチベース、決定ベース、ドロップベース、物理ワールド攻撃など、新たな攻撃方法も検討され、最新の防御方法の階層的分類が提供され、トレーニングコストとパフォーマンスのバランス、クリーンな精度の維持、勾配マスクの効果の克服、メソッド転送可能性の確保といった課題が強調されている。
最後に、学んだ教訓とオープンチャレンジは、将来の研究機会として推奨されている。
関連論文リスト
- FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Adversarial Attacks of Vision Tasks in the Past 10 Years: A Survey [21.4046846701173]
敵対的攻撃は、機械学習推論中に重大なセキュリティ脅威を引き起こす。
既存のレビューは、しばしば攻撃分類に焦点を合わせ、包括的で詳細な分析を欠いている。
本稿は、従来のLVLM攻撃とLVLM攻撃の包括的概要を提供することによって、これらのギャップに対処する。
論文 参考訳(メタデータ) (2024-10-31T07:22:51Z) - Robust Image Classification: Defensive Strategies against FGSM and PGD Adversarial Attacks [0.0]
敵対的攻撃は、画像分類におけるディープラーニングモデルの堅牢性に重大な脅威をもたらす。
本稿では,ニューラルネットワークのレジリエンスを高めるために,これらの攻撃に対する防御機構を探索し,洗練する。
論文 参考訳(メタデータ) (2024-08-20T02:00:02Z) - A Hybrid Training-time and Run-time Defense Against Adversarial Attacks in Modulation Classification [35.061430235135155]
機械学習に基づく無線信号(変調)分類を敵攻撃から保護するための訓練時間と実行時間の両方の防御技術に基づく防御機構。
ホワイトボックスのシナリオと実際のデータセットを考慮すると、提案手法が既存の最先端技術より優れていることを示す。
論文 参考訳(メタデータ) (2024-07-09T12:28:38Z) - Explainability-Informed Targeted Malware Misclassification [0.0]
マルウェア分類をカテゴリに分類する機械学習モデルは有望な結果を示している。
ディープニューラルネットワークは、意図的な敵攻撃に対する脆弱性を示している。
本稿では,ニューラルネットワークを用いたマルウェア分類システムにおいて,このような攻撃的脆弱性について検討する。
論文 参考訳(メタデータ) (2024-05-07T04:59:19Z) - Physical Adversarial Attacks For Camera-based Smart Systems: Current
Trends, Categorization, Applications, Research Challenges, and Future Outlook [2.1771693754641013]
本研究の目的は,身体的敵意攻撃の概念を深く理解し,その特徴を分析し,特徴を識別することである。
本稿では, 対象タスクに応じて異なるアプリケーションで分類した, 様々な物理的敵攻撃手法について検討する。
本研究は,これらの攻撃手法の有効性,ステルス性,ロバスト性の観点から評価する。
論文 参考訳(メタデータ) (2023-08-11T15:02:19Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Searching for an Effective Defender: Benchmarking Defense against
Adversarial Word Substitution [83.84968082791444]
ディープニューラルネットワークは、意図的に構築された敵の例に対して脆弱である。
ニューラルNLPモデルに対する敵対的単語置換攻撃を防御する様々な方法が提案されている。
論文 参考訳(メタデータ) (2021-08-29T08:11:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。