論文の概要: ML Attack Models: Adversarial Attacks and Data Poisoning Attacks
- arxiv url: http://arxiv.org/abs/2112.02797v1
- Date: Mon, 6 Dec 2021 05:59:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 18:30:55.943548
- Title: ML Attack Models: Adversarial Attacks and Data Poisoning Attacks
- Title(参考訳): ml攻撃モデル: 敵対的攻撃とデータ中毒攻撃
- Authors: Jing Lin, Long Dang, Mohamed Rahouti, and Kaiqi Xiong
- Abstract要約: 多くの最先端MLモデルは、画像分類などの様々なタスクにおいて人間よりも優れています。
敵対的攻撃とデータ中毒攻撃の存在は、MLモデルの堅牢性に本当に疑問を呈している。
この章は、MLセキュリティの2つの広く重要な領域、すなわち、敵対的攻撃とデータ中毒攻撃に焦点を当てている。
- 参考スコア(独自算出の注目度): 2.257416403770908
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Many state-of-the-art ML models have outperformed humans in various tasks
such as image classification. With such outstanding performance, ML models are
widely used today. However, the existence of adversarial attacks and data
poisoning attacks really questions the robustness of ML models. For instance,
Engstrom et al. demonstrated that state-of-the-art image classifiers could be
easily fooled by a small rotation on an arbitrary image. As ML systems are
being increasingly integrated into safety and security-sensitive applications,
adversarial attacks and data poisoning attacks pose a considerable threat. This
chapter focuses on the two broad and important areas of ML security:
adversarial attacks and data poisoning attacks.
- Abstract(参考訳): 多くの最先端MLモデルは、画像分類などの様々なタスクにおいて人間よりも優れています。
このような卓越した性能で、MLモデルは今日では広く使われている。
しかし、敵攻撃やデータ中毒攻撃の存在は、MLモデルの堅牢性に疑問を呈している。
例えばengstromらは、最先端の画像分類器が任意の画像上の小さな回転によって容易に騙されることを示した。
mlシステムは安全性とセキュリティに敏感なアプリケーションに統合されつつあるため、逆襲やデータ中毒攻撃は大きな脅威となる。
この章は、MLセキュリティの2つの広く重要な領域、すなわち、敵対的攻撃とデータ中毒攻撃に焦点を当てている。
関連論文リスト
- SecurityNet: Assessing Machine Learning Vulnerabilities on Public Models [74.58014281829946]
本研究では, モデル盗難攻撃, メンバーシップ推論攻撃, パブリックモデルにおけるバックドア検出など, いくつかの代表的な攻撃・防御の有効性を解析する。
実験により,これらの攻撃・防御性能は,自己学習モデルと比較して,公共モデルによって大きく異なることが示された。
論文 参考訳(メタデータ) (2023-10-19T11:49:22Z) - Semantic Image Attack for Visual Model Diagnosis [80.36063332820568]
実際には、特定の列車およびテストデータセットに関する計量分析は、信頼性や公正なMLモデルを保証しない。
本稿では,セマンティック・イメージ・アタック(SIA)を提案する。
論文 参考訳(メタデータ) (2023-03-23T03:13:04Z) - Can Adversarial Examples Be Parsed to Reveal Victim Model Information? [60.42408040267338]
本研究では,データ固有の敵インスタンスから,データに依存しない被害者モデル(VM)情報を推測できるかどうかを問う。
我々は,135件の被害者モデルから生成された7種類の攻撃に対して,敵攻撃のデータセットを収集する。
単純な教師付きモデル解析ネットワーク(MPN)は、見えない敵攻撃からVM属性を推測できることを示す。
論文 参考訳(メタデータ) (2023-03-13T21:21:49Z) - Threat Assessment in Machine Learning based Systems [12.031113181911627]
我々は機械学習に基づくシステムに対して報告された脅威を実証研究する。
この研究は、MITREのATLASデータベース、AIインシデントデータベース、および文学からの89の現実世界のML攻撃シナリオに基づいている。
その結果,畳み込みニューラルネットワークは攻撃シナリオの中でも最も標的となるモデルの一つであることがわかった。
論文 参考訳(メタデータ) (2022-06-30T20:19:50Z) - Machine Learning Security against Data Poisoning: Are We There Yet? [23.809841593870757]
この記事では、機械学習モデル学習に使用されるトレーニングデータを侵害するデータ中毒攻撃についてレビューする。
基本的なセキュリティ原則を用いてこれらの攻撃を緩和するか、あるいはML指向の防御機構をデプロイするかについて議論する。
論文 参考訳(メタデータ) (2022-04-12T17:52:09Z) - Multi-concept adversarial attacks [13.538643599990785]
単一のMLモデルをターゲットにしたテストタイムアタックは、他のMLモデルへの影響を無視することが多い。
我々は,一方のMLモデルの精度を維持しつつ,一方のMLモデルの同時攻撃を可能にする新しい攻撃手法を開発した。
論文 参考訳(メタデータ) (2021-10-19T22:14:19Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - Adversarial Attack Attribution: Discovering Attributable Signals in
Adversarial ML Attacks [0.7883722807601676]
自動運転車やML-as-a-serviceのような生産システムでさえ、逆の入力の影響を受けやすい。
摂動入力は、攻撃を生成するために使われるメソッドに起因できるだろうか?
敵対攻撃属性の概念を導入し、敵対攻撃における攻撃可能信号の発見可能性を調べるための単純な教師付き学習実験フレームワークを作成する。
論文 参考訳(メタデータ) (2021-01-08T08:16:41Z) - Witches' Brew: Industrial Scale Data Poisoning via Gradient Matching [56.280018325419896]
Data Poisoning攻撃は、トレーニングデータを変更して、そのようなデータでトレーニングされたモデルを悪意を持って制御する。
我々は「スクラッチから」と「クリーンラベルから」の両方である特に悪意のある毒物攻撃を分析します。
フルサイズで有毒なImageNetデータセットをスクラッチからトレーニングした現代のディープネットワークにおいて、ターゲットの誤分類を引き起こすのは、これが初めてであることを示す。
論文 参考訳(メタデータ) (2020-09-04T16:17:54Z) - Adversarial Fooling Beyond "Flipping the Label" [54.23547006072598]
CNNは、多くの重要なタスクにおいて、人間に近いか、人間のパフォーマンスよりも優れていることを示す。
これらの攻撃は、実際の展開において潜在的に危険である。
異なるCNNアーキテクチャの集合に対するいくつかの重要な敵攻撃を包括的に分析する。
論文 参考訳(メタデータ) (2020-04-27T13:21:03Z) - Practical Fast Gradient Sign Attack against Mammographic Image
Classifier [0.0]
本稿の背後にあるモチベーションは、この問題を強調し、認識を高めたいということです。
我々はマンモグラフィー画像を用いてモデルを訓練し、精度でモデル性能を評価する。
次に、構造類似度指数(SSIM)を用いて、クリーン画像と逆画像の類似性を分析する。
論文 参考訳(メタデータ) (2020-01-27T07:37:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。