論文の概要: Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey
- arxiv url: http://arxiv.org/abs/2303.06302v1
- Date: Sat, 11 Mar 2023 04:19:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 19:45:39.458632
- Title: Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey
- Title(参考訳): 機械学習ネットワークにおける敵対的攻撃と防御--現代調査
- Authors: Yulong Wang, Tong Sun, Shenghong Li, Xin Yuan, Wei Ni, Ekram Hossain,
H. Vincent Poor
- Abstract要約: 機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
- 参考スコア(独自算出の注目度): 114.17568992164303
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks and defenses in machine learning and deep neural network
have been gaining significant attention due to the rapidly growing applications
of deep learning in the Internet and relevant scenarios. This survey provides a
comprehensive overview of the recent advancements in the field of adversarial
attack and defense techniques, with a focus on deep neural network-based
classification models. Specifically, we conduct a comprehensive classification
of recent adversarial attack methods and state-of-the-art adversarial defense
techniques based on attack principles, and present them in visually appealing
tables and tree diagrams. This is based on a rigorous evaluation of the
existing works, including an analysis of their strengths and limitations. We
also categorize the methods into counter-attack detection and robustness
enhancement, with a specific focus on regularization-based methods for
enhancing robustness. New avenues of attack are also explored, including
search-based, decision-based, drop-based, and physical-world attacks, and a
hierarchical classification of the latest defense methods is provided,
highlighting the challenges of balancing training costs with performance,
maintaining clean accuracy, overcoming the effect of gradient masking, and
ensuring method transferability. At last, the lessons learned and open
challenges are summarized with future research opportunities recommended.
- Abstract(参考訳): 機械学習とディープニューラルネットワークにおける敵対的攻撃と防御は、インターネットにおけるディープラーニングの急速に成長した応用と関連するシナリオによって、大きな注目を集めている。
本調査は,深層ニューラルネットワークに基づく分類モデルに焦点をあてた,敵対的攻撃・防御技術の最近の進歩の概要を提供する。
具体的には,最近の攻撃手法の包括的分類を行い,攻撃原理に基づいた最先端の防御手法を視覚的にアピールする表や木図に提示する。
これは既存の作品の強みと限界の分析を含む厳密な評価に基づいている。
また,本手法を,正則化に基づくロバスト性向上手法を中心に,反撃検出とロバスト性向上に分類する。
サーチベース、決定ベース、ドロップベース、物理ワールド攻撃など、新たな攻撃方法も検討され、最新の防御方法の階層的分類が提供され、トレーニングコストとパフォーマンスのバランス、クリーンな精度の維持、勾配マスクの効果の克服、メソッド転送可能性の確保といった課題が強調されている。
最後に、学んだ教訓とオープンチャレンジは、将来の研究機会として推奨されている。
関連論文リスト
- A Review of the Duality of Adversarial Learning in Network Intrusion: Attacks and Countermeasures [0.0]
敵対的攻撃、特にディープラーニングモデルの脆弱性を狙った攻撃は、サイバーセキュリティに対するニュアンスで重大な脅威となる。
本研究は,データポジショニング,テストタイムエベイション,リバースエンジニアリングなど,敵対的な学習の脅威について論じる。
我々の研究は、敵の攻撃によって引き起こされるネットワークセキュリティとプライバシの潜在的な侵害に対処するための防御メカニズムを強化するための基盤となる。
論文 参考訳(メタデータ) (2024-12-18T14:21:46Z) - Sustainable Self-evolution Adversarial Training [51.25767996364584]
対戦型防衛モデルのための持続的自己進化支援訓練(SSEAT)フレームワークを提案する。
本研究は,様々な種類の対角的事例から学習を実現するために,連続的な対向防衛パイプラインを導入する。
また,より多様で重要な再学習データを選択するために,逆データ再生モジュールを提案する。
論文 参考訳(メタデータ) (2024-12-03T08:41:11Z) - FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Robust Image Classification: Defensive Strategies against FGSM and PGD Adversarial Attacks [0.0]
敵対的攻撃は、画像分類におけるディープラーニングモデルの堅牢性に重大な脅威をもたらす。
本稿では,ニューラルネットワークのレジリエンスを高めるために,これらの攻撃に対する防御機構を探索し,洗練する。
論文 参考訳(メタデータ) (2024-08-20T02:00:02Z) - A Hybrid Training-time and Run-time Defense Against Adversarial Attacks in Modulation Classification [35.061430235135155]
機械学習に基づく無線信号(変調)分類を敵攻撃から保護するための訓練時間と実行時間の両方の防御技術に基づく防御機構。
ホワイトボックスのシナリオと実際のデータセットを考慮すると、提案手法が既存の最先端技術より優れていることを示す。
論文 参考訳(メタデータ) (2024-07-09T12:28:38Z) - Explainability-Informed Targeted Malware Misclassification [0.0]
マルウェア分類をカテゴリに分類する機械学習モデルは有望な結果を示している。
ディープニューラルネットワークは、意図的な敵攻撃に対する脆弱性を示している。
本稿では,ニューラルネットワークを用いたマルウェア分類システムにおいて,このような攻撃的脆弱性について検討する。
論文 参考訳(メタデータ) (2024-05-07T04:59:19Z) - Physical Adversarial Attacks For Camera-based Smart Systems: Current
Trends, Categorization, Applications, Research Challenges, and Future Outlook [2.1771693754641013]
本研究の目的は,身体的敵意攻撃の概念を深く理解し,その特徴を分析し,特徴を識別することである。
本稿では, 対象タスクに応じて異なるアプリケーションで分類した, 様々な物理的敵攻撃手法について検討する。
本研究は,これらの攻撃手法の有効性,ステルス性,ロバスト性の観点から評価する。
論文 参考訳(メタデータ) (2023-08-11T15:02:19Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Searching for an Effective Defender: Benchmarking Defense against
Adversarial Word Substitution [83.84968082791444]
ディープニューラルネットワークは、意図的に構築された敵の例に対して脆弱である。
ニューラルNLPモデルに対する敵対的単語置換攻撃を防御する様々な方法が提案されている。
論文 参考訳(メタデータ) (2021-08-29T08:11:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。