論文の概要: ML Attack Models: Adversarial Attacks and Data Poisoning Attacks
- arxiv url: http://arxiv.org/abs/2112.02797v1
- Date: Mon, 6 Dec 2021 05:59:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 18:30:55.943548
- Title: ML Attack Models: Adversarial Attacks and Data Poisoning Attacks
- Title(参考訳): ml攻撃モデル: 敵対的攻撃とデータ中毒攻撃
- Authors: Jing Lin, Long Dang, Mohamed Rahouti, and Kaiqi Xiong
- Abstract要約: 多くの最先端MLモデルは、画像分類などの様々なタスクにおいて人間よりも優れています。
敵対的攻撃とデータ中毒攻撃の存在は、MLモデルの堅牢性に本当に疑問を呈している。
この章は、MLセキュリティの2つの広く重要な領域、すなわち、敵対的攻撃とデータ中毒攻撃に焦点を当てている。
- 参考スコア(独自算出の注目度): 2.257416403770908
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Many state-of-the-art ML models have outperformed humans in various tasks
such as image classification. With such outstanding performance, ML models are
widely used today. However, the existence of adversarial attacks and data
poisoning attacks really questions the robustness of ML models. For instance,
Engstrom et al. demonstrated that state-of-the-art image classifiers could be
easily fooled by a small rotation on an arbitrary image. As ML systems are
being increasingly integrated into safety and security-sensitive applications,
adversarial attacks and data poisoning attacks pose a considerable threat. This
chapter focuses on the two broad and important areas of ML security:
adversarial attacks and data poisoning attacks.
- Abstract(参考訳): 多くの最先端MLモデルは、画像分類などの様々なタスクにおいて人間よりも優れています。
このような卓越した性能で、MLモデルは今日では広く使われている。
しかし、敵攻撃やデータ中毒攻撃の存在は、MLモデルの堅牢性に疑問を呈している。
例えばengstromらは、最先端の画像分類器が任意の画像上の小さな回転によって容易に騙されることを示した。
mlシステムは安全性とセキュリティに敏感なアプリケーションに統合されつつあるため、逆襲やデータ中毒攻撃は大きな脅威となる。
この章は、MLセキュリティの2つの広く重要な領域、すなわち、敵対的攻撃とデータ中毒攻撃に焦点を当てている。
関連論文リスト
- Adversarial Attacks on Machine Learning-Aided Visualizations [12.37960099024803]
ML4VISのアプローチは、ML固有の敵攻撃の影響を受けやすい。
これらの攻撃は視覚化世代を操作でき、アナリストが騙され、判断が損なわれる。
本稿では,ML と ML の両視点の全体像レンズを用いて,敵攻撃による ML 支援視覚化の潜在的な脆弱性について検討する。
論文 参考訳(メタデータ) (2024-09-04T07:23:12Z) - Safety in Graph Machine Learning: Threats and Safeguards [84.26643884225834]
社会的利益にもかかわらず、最近の研究はグラフMLモデルの普及に伴う重要な安全性上の懸念を浮き彫りにしている。
安全性を重視した設計が欠如しているため、これらのモデルは信頼性の低い予測を導き、一般化性の低下を示し、データの機密性を侵害することができる。
金融詐欺検出のような高額なシナリオでは、これらの脆弱性は個人と社会の両方を全般的に危険に晒す可能性がある。
論文 参考訳(メタデータ) (2024-05-17T18:11:11Z) - SecurityNet: Assessing Machine Learning Vulnerabilities on Public Models [74.58014281829946]
本研究では, モデル盗難攻撃, メンバーシップ推論攻撃, パブリックモデルにおけるバックドア検出など, いくつかの代表的な攻撃・防御の有効性を解析する。
実験により,これらの攻撃・防御性能は,自己学習モデルと比較して,公共モデルによって大きく異なることが示された。
論文 参考訳(メタデータ) (2023-10-19T11:49:22Z) - Vulnerability of Machine Learning Approaches Applied in IoT-based Smart Grid: A Review [51.31851488650698]
機械学習(ML)は、IoT(Internet-of-Things)ベースのスマートグリッドでの使用頻度が高まっている。
電力信号に注入された逆方向の歪みは システムの正常な制御と操作に大きな影響を及ぼす
安全クリティカルパワーシステムに適用されたMLsgAPPの脆弱性評価を行うことが不可欠である。
論文 参考訳(メタデータ) (2023-08-30T03:29:26Z) - Adversarial Evasion Attacks Practicality in Networks: Testing the Impact of Dynamic Learning [1.6574413179773757]
敵攻撃は、MLモデルを騙して欠陥予測を生成することを目的としている。
敵攻撃はMLベースのNIDSを妥協する。
本実験は, 対人訓練を伴わない継続的再訓練は, 対人攻撃の有効性を低下させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-06-08T18:32:08Z) - Semantic Image Attack for Visual Model Diagnosis [80.36063332820568]
実際には、特定の列車およびテストデータセットに関する計量分析は、信頼性や公正なMLモデルを保証しない。
本稿では,セマンティック・イメージ・アタック(SIA)を提案する。
論文 参考訳(メタデータ) (2023-03-23T03:13:04Z) - Can Adversarial Examples Be Parsed to Reveal Victim Model Information? [62.814751479749695]
本研究では,データ固有の敵インスタンスから,データに依存しない被害者モデル(VM)情報を推測できるかどうかを問う。
我々は,135件の被害者モデルから生成された7種類の攻撃に対して,敵攻撃のデータセットを収集する。
単純な教師付きモデル解析ネットワーク(MPN)は、見えない敵攻撃からVM属性を推測できることを示す。
論文 参考訳(メタデータ) (2023-03-13T21:21:49Z) - Threat Assessment in Machine Learning based Systems [12.031113181911627]
我々は機械学習に基づくシステムに対して報告された脅威を実証研究する。
この研究は、MITREのATLASデータベース、AIインシデントデータベース、および文学からの89の現実世界のML攻撃シナリオに基づいている。
その結果,畳み込みニューラルネットワークは攻撃シナリオの中でも最も標的となるモデルの一つであることがわかった。
論文 参考訳(メタデータ) (2022-06-30T20:19:50Z) - Machine Learning Security against Data Poisoning: Are We There Yet? [23.809841593870757]
この記事では、機械学習モデル学習に使用されるトレーニングデータを侵害するデータ中毒攻撃についてレビューする。
基本的なセキュリティ原則を用いてこれらの攻撃を緩和するか、あるいはML指向の防御機構をデプロイするかについて議論する。
論文 参考訳(メタデータ) (2022-04-12T17:52:09Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - Practical Fast Gradient Sign Attack against Mammographic Image
Classifier [0.0]
本稿の背後にあるモチベーションは、この問題を強調し、認識を高めたいということです。
我々はマンモグラフィー画像を用いてモデルを訓練し、精度でモデル性能を評価する。
次に、構造類似度指数(SSIM)を用いて、クリーン画像と逆画像の類似性を分析する。
論文 参考訳(メタデータ) (2020-01-27T07:37:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。