論文の概要: Attacks in Adversarial Machine Learning: A Systematic Survey from the
Life-cycle Perspective
- arxiv url: http://arxiv.org/abs/2302.09457v2
- Date: Thu, 4 Jan 2024 13:43:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-05 17:58:33.078210
- Title: Attacks in Adversarial Machine Learning: A Systematic Survey from the
Life-cycle Perspective
- Title(参考訳): 敵対的機械学習における攻撃 : ライフサイクルから見たシステム的調査
- Authors: Baoyuan Wu, Zihao Zhu, Li Liu, Qingshan Liu, Zhaofeng He, Siwei Lyu
- Abstract要約: 敵対的機械学習(英: Adversarial Machine Learning、AML)は、機械学習の逆行現象を研究する。
機械学習システムの異なる段階で発生するこの敵対現象を探求するために、いくつかのパラダイムが最近開発された。
既存の攻撃パラダイムをカバーするための統一的な数学的枠組みを提案する。
- 参考スコア(独自算出の注目度): 69.25513235556635
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Adversarial machine learning (AML) studies the adversarial phenomenon of
machine learning, which may make inconsistent or unexpected predictions with
humans. Some paradigms have been recently developed to explore this adversarial
phenomenon occurring at different stages of a machine learning system, such as
backdoor attack occurring at the pre-training, in-training and inference stage;
weight attack occurring at the post-training, deployment and inference stage;
adversarial attack occurring at the inference stage. However, although these
adversarial paradigms share a common goal, their developments are almost
independent, and there is still no big picture of AML. In this work, we aim to
provide a unified perspective to the AML community to systematically review the
overall progress of this field. We firstly provide a general definition about
AML, and then propose a unified mathematical framework to covering existing
attack paradigms. According to the proposed unified framework, we build a full
taxonomy to systematically categorize and review existing representative
methods for each paradigm. Besides, using this unified framework, it is easy to
figure out the connections and differences among different attack paradigms,
which may inspire future researchers to develop more advanced attack paradigms.
Finally, to facilitate the viewing of the built taxonomy and the related
literature in adversarial machine learning, we further provide a website, \ie,
\url{http://adversarial-ml.com}, where the taxonomies and literature will be
continuously updated.
- Abstract(参考訳): 敵対的機械学習(adversarial machine learning, aml)は、人間との一貫性や予期せぬ予測を可能にする機械学習の敵対的現象を研究する。
近年、機械学習システムの異なる段階で発生するこの敵対現象を探求するパラダイムが開発されている。例えば、トレーニング前、トレーニング中、推論段階で発生するバックドアアタック、トレーニング後、デプロイ後、推論段階で発生するウェイトアタック、推論段階で発生する敵アタックなどである。
しかし、これらの敵対的パラダイムは共通の目標を共有しているが、その開発はほとんど独立しており、AMLの全体像はいまだにない。
本研究は,amlコミュニティに統一的な視点を提供し,この分野全体の進歩を体系的に見直すことを目的とする。
まず、AMLに関する一般的な定義を提供し、次に既存の攻撃パラダイムをカバーするための統一的な数学的枠組みを提案する。
提案した統合フレームワークでは,各パラダイムの既存の代表的手法を体系的に分類し,レビューするための完全な分類法を構築している。
さらに、この統合されたフレームワークを使用することで、異なる攻撃パラダイム間の接続と差異を容易に把握し、将来の研究者がより高度な攻撃パラダイムを開発するよう促す可能性がある。
最後に、構築された分類学と関連する文学の学習を容易にするために、我々はさらにwebサイト \ie, \url{http://adversarial-ml.com} を提供し、分類法と文学を継続的に更新する。
関連論文リスト
- MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - Inference Attacks: A Taxonomy, Survey, and Promising Directions [44.290208239143126]
この調査は、ML-as-a-serviceにおける攻撃の詳細な包括的推測とそれに対応する対策を提供する。
まず,コミュニティ研究状況に基づく3MP分類法を提案する。
また、各種類の推論攻撃の長所と短所、ワークフロー、対策、およびそれらが他の攻撃とどのように相互作用するかを分析する。
論文 参考訳(メタデータ) (2024-06-04T07:06:06Z) - Defenses in Adversarial Machine Learning: A Survey [46.41995115842852]
対立現象は機械学習(ML)システム、特にディープニューラルネットワークを用いたシステムで広く観測されている。
バックドア攻撃、重み攻撃、敵の例など、いくつかの先進的な攻撃パラダイムが探索するために開発されている。
対応する攻撃パラダイムに対するモデルロバスト性を改善するために、様々な防御パラダイムが開発されている。
この調査は、統一的な視点から、既存の防衛パラダイムの体系的なレビューを構築することを目的としている。
論文 参考訳(メタデータ) (2023-12-13T15:42:55Z) - Survey of Vulnerabilities in Large Language Models Revealed by
Adversarial Attacks [5.860289498416911]
大規模言語モデル(LLM)はアーキテクチャと能力において急速に進歩しています。
複雑なシステムに深く統合されるにつれて、セキュリティ特性を精査する緊急性が高まっている。
本稿では,LSMに対する対人攻撃の新たな学際的分野について調査する。
論文 参考訳(メタデータ) (2023-10-16T21:37:24Z) - Visual Adversarial Examples Jailbreak Aligned Large Language Models [66.53468356460365]
視覚入力の連続的かつ高次元的な性質は、敵対的攻撃に対する弱いリンクであることを示す。
我々は、視力統合されたLLMの安全ガードレールを回避するために、視覚的敵の例を利用する。
本研究は,マルチモダリティの追求に伴う敵のエスカレーションリスクを浮き彫りにする。
論文 参考訳(メタデータ) (2023-06-22T22:13:03Z) - Adversarial Evasion Attacks Practicality in Networks: Testing the Impact of Dynamic Learning [1.6574413179773757]
敵攻撃は、MLモデルを騙して欠陥予測を生成することを目的としている。
敵攻撃はMLベースのNIDSを妥協する。
本実験は, 対人訓練を伴わない継続的再訓練は, 対人攻撃の有効性を低下させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-06-08T18:32:08Z) - MAML is a Noisy Contrastive Learner [72.04430033118426]
モデルに依存しないメタラーニング(MAML)は、今日では最も人気があり広く採用されているメタラーニングアルゴリズムの1つである。
我々は、MAMLの動作メカニズムに対する新たな視点を提供し、以下に示すように、MAMLは、教師付きコントラスト目的関数を用いたメタラーナーに類似している。
このような干渉を軽減するため, 単純だが効果的な手法であるゼロ化手法を提案する。
論文 参考訳(メタデータ) (2021-06-29T12:52:26Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - Adversarial Machine Learning: Bayesian Perspectives [0.4915744683251149]
Adversarial Machine Learning (AML)は、機械学習(ML)システムをセキュリティ上の脅威から保護することを目的とした、主要な分野として浮上している。
あるシナリオでは、愚かな学習システムに入力データを積極的に操作する敵が存在するかもしれません。
これにより、MLシステムが直面する可能性のある、新たなセキュリティ脆弱性のクラスと、信頼性操作に不可欠な敵の堅牢性と呼ばれる、新たな望ましいプロパティが生成される。
論文 参考訳(メタデータ) (2020-03-07T10:30:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。