論文の概要: Defenses in Adversarial Machine Learning: A Survey
- arxiv url: http://arxiv.org/abs/2312.08890v1
- Date: Wed, 13 Dec 2023 15:42:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-15 22:11:00.834949
- Title: Defenses in Adversarial Machine Learning: A Survey
- Title(参考訳): 敵対的機械学習における防衛 : 調査
- Authors: Baoyuan Wu, Shaokui Wei, Mingli Zhu, Meixi Zheng, Zihao Zhu, Mingda
Zhang, Hongrui Chen, Danni Yuan, Li Liu, Qingshan Liu
- Abstract要約: 対立現象は機械学習(ML)システム、特にディープニューラルネットワークを用いたシステムで広く観測されている。
バックドア攻撃、重み攻撃、敵の例など、いくつかの先進的な攻撃パラダイムが探索するために開発されている。
対応する攻撃パラダイムに対するモデルロバスト性を改善するために、様々な防御パラダイムが開発されている。
この調査は、統一的な視点から、既存の防衛パラダイムの体系的なレビューを構築することを目的としている。
- 参考スコア(独自算出の注目度): 46.41995115842852
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial phenomenon has been widely observed in machine learning (ML)
systems, especially in those using deep neural networks, describing that ML
systems may produce inconsistent and incomprehensible predictions with humans
at some particular cases. This phenomenon poses a serious security threat to
the practical application of ML systems, and several advanced attack paradigms
have been developed to explore it, mainly including backdoor attacks, weight
attacks, and adversarial examples. For each individual attack paradigm, various
defense paradigms have been developed to improve the model robustness against
the corresponding attack paradigm. However, due to the independence and
diversity of these defense paradigms, it is difficult to examine the overall
robustness of an ML system against different kinds of attacks.This survey aims
to build a systematic review of all existing defense paradigms from a unified
perspective. Specifically, from the life-cycle perspective, we factorize a
complete machine learning system into five stages, including pre-training,
training, post-training, deployment, and inference stages, respectively. Then,
we present a clear taxonomy to categorize and review representative defense
methods at each individual stage. The unified perspective and presented
taxonomies not only facilitate the analysis of the mechanism of each defense
paradigm but also help us to understand connections and differences among
different defense paradigms, which may inspire future research to develop more
advanced, comprehensive defenses.
- Abstract(参考訳): 機械学習(ML)システム、特にディープニューラルネットワークシステムでは、MLシステムは特定の場合において人間と一貫性がなく理解不能な予測を生じさせる可能性があると説明されている。
この現象はMLシステムの実用化に深刻なセキュリティ上の脅威をもたらし、バックドアアタック、重み付けアタック、敵の例を含むいくつかの高度な攻撃パラダイムが開発されている。
各攻撃パラダイムに対して、対応する攻撃パラダイムに対するモデル堅牢性を改善するために、様々な防御パラダイムが開発された。
しかし,これらの防衛パラダイムの独立性と多様性から,mlシステムの全般的堅牢性を検討することは困難であり,統一的な視点から既存の防衛パラダイムを体系的に検討することを目的としている。
具体的には、ライフサイクルの観点から、完全な機械学習システムを、事前トレーニング、トレーニング、ポストトレーニング、デプロイメント、推論ステージを含む5つのステージに分類する。
次に,各段階における代表的な防御方法を分類・検討するための明確な分類法を提案する。
統一的な視点と提示された分類法は、各防衛パラダイムのメカニズムの分析を促進するだけでなく、異なる防衛パラダイム間の接続や相違を理解するのに役立つ。
関連論文リスト
- Jailbreak Attacks and Defenses against Multimodal Generative Models: A Survey [50.031628043029244]
マルチモーダル生成モデルは、ビルトインの安全機構をバイパスし、潜在的に有害なコンテンツの生成を誘導できる、ジェイルブレイク攻撃の影響を受けやすい。
本調査は,マルチモーダル生成モデルにおけるジェイルブレイクと防御についてレビューする。
論文 参考訳(メタデータ) (2024-11-14T07:51:51Z) - Inference Attacks: A Taxonomy, Survey, and Promising Directions [44.290208239143126]
この調査は、ML-as-a-serviceにおける攻撃の詳細な包括的推測とそれに対応する対策を提供する。
まず,コミュニティ研究状況に基づく3MP分類法を提案する。
また、各種類の推論攻撃の長所と短所、ワークフロー、対策、およびそれらが他の攻撃とどのように相互作用するかを分析する。
論文 参考訳(メタデータ) (2024-06-04T07:06:06Z) - Attacks in Adversarial Machine Learning: A Systematic Survey from the
Life-cycle Perspective [69.25513235556635]
敵対的機械学習(英: Adversarial Machine Learning、AML)は、機械学習の逆行現象を研究する。
機械学習システムの異なる段階で発生するこの敵対現象を探求するために、いくつかのパラダイムが最近開発された。
既存の攻撃パラダイムをカバーするための統一的な数学的枠組みを提案する。
論文 参考訳(メタデータ) (2023-02-19T02:12:21Z) - I Know What You Trained Last Summer: A Survey on Stealing Machine
Learning Models and Defences [0.1031296820074812]
本研究では,モデル盗難攻撃について検討し,その性能を評価し,異なる環境で対応する防御技術を探究する。
攻撃・防衛アプローチのための分類法を提案し,目標と利用可能な資源に基づいて適切な攻撃・防衛を選択する方法に関するガイドラインを提供する。
論文 参考訳(メタデータ) (2022-06-16T21:16:41Z) - A Tutorial on Adversarial Learning Attacks and Countermeasures [0.0]
機械学習モデルは、それを明示的にプログラムすることなく、高精度な予測を行うことができる。
敵の学習攻撃は 深刻なセキュリティの脅威を 引き起こす
本稿では、敵対的学習の原理を詳細に解説し、異なる攻撃シナリオを説明し、この脅威に対する最先端の防御機構について深い洞察を与える。
論文 参考訳(メタデータ) (2022-02-21T17:14:45Z) - Searching for an Effective Defender: Benchmarking Defense against
Adversarial Word Substitution [83.84968082791444]
ディープニューラルネットワークは、意図的に構築された敵の例に対して脆弱である。
ニューラルNLPモデルに対する敵対的単語置換攻撃を防御する様々な方法が提案されている。
論文 参考訳(メタデータ) (2021-08-29T08:11:36Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。