論文の概要: Amplifying Machine Learning Attacks Through Strategic Compositions
- arxiv url: http://arxiv.org/abs/2506.18870v1
- Date: Mon, 23 Jun 2025 17:38:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:37.104971
- Title: Amplifying Machine Learning Attacks Through Strategic Compositions
- Title(参考訳): 戦略構成による機械学習攻撃の増幅
- Authors: Yugeng Liu, Zheng Li, Hai Huang, Michael Backes, Yang Zhang,
- Abstract要約: 我々は,モデルの推論フェーズにおいて,逆例,属性推論,メンバシップ推論,プロパティ推論という,よく研究された4つの攻撃に焦点を当てた。
本研究では,属性推論を準備レベルで支援するプロパティ推論と,その実行レベルでのプロパティ推論を補助する逆例の4つの効果的な攻撃成分を同定する。
我々の研究は、研究者や実践者が、複数の攻撃戦略を含む高度な敵の設定を検討するために役立ちます。
- 参考スコア(独自算出の注目度): 25.796285779866686
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning (ML) models are proving to be vulnerable to a variety of attacks that allow the adversary to learn sensitive information, cause mispredictions, and more. While these attacks have been extensively studied, current research predominantly focuses on analyzing each attack type individually. In practice, however, adversaries may employ multiple attack strategies simultaneously rather than relying on a single approach. This prompts a crucial yet underexplored question: When the adversary has multiple attacks at their disposal, are they able to mount or amplify the effect of one attack with another? In this paper, we take the first step in studying the strategic interactions among different attacks, which we define as attack compositions. Specifically, we focus on four well-studied attacks during the model's inference phase: adversarial examples, attribute inference, membership inference, and property inference. To facilitate the study of their interactions, we propose a taxonomy based on three stages of the attack pipeline: preparation, execution, and evaluation. Using this taxonomy, we identify four effective attack compositions, such as property inference assisting attribute inference at its preparation level and adversarial examples assisting property inference at its execution level. We conduct extensive experiments on the attack compositions using three ML model architectures and three benchmark image datasets. Empirical results demonstrate the effectiveness of these four attack compositions. We implement and release a modular reusable toolkit, COAT. Arguably, our work serves as a call for researchers and practitioners to consider advanced adversarial settings involving multiple attack strategies, aiming to strengthen the security and robustness of AI systems.
- Abstract(参考訳): 機械学習(ML)モデルは、敵が機密情報を学び、誤予測を引き起こすことができるような、さまざまな攻撃に対して脆弱であることが証明されている。
これらの攻撃は広く研究されているが、現在の研究は主に個々の攻撃タイプを個別に分析することに焦点を当てている。
しかし実際には、敵は一つのアプローチに頼るのではなく、複数の攻撃戦略を同時に採用することができる。
敵が複数の攻撃を処理している場合、彼らは別の攻撃で攻撃の効果をマウントまたは増幅できるだろうか?
本稿では,攻撃構成として定義する異なる攻撃間の戦略的相互作用を研究するための第一歩を踏み出す。
具体的には、モデルの推論フェーズにおいて、逆例、属性推論、メンバシップ推論、プロパティ推論の4つのよく研究された攻撃に焦点を当てる。
そこで本研究では,攻撃パイプラインの3段階(準備,実行,評価)に基づいた分類法を提案する。
この分類法を用いて,属性推論を準備レベルで支援するプロパティ推論と,実行レベルでのプロパティ推論を補助する逆例の4つの効果的な攻撃成分を同定する。
3つのMLモデルアーキテクチャと3つのベンチマーク画像データセットを用いて、攻撃構成に関する広範な実験を行う。
実験により,これらの4つの攻撃成分の有効性が示された。
モジュール化された再利用可能なツールキットであるCOATを実装しリリースします。
我々の研究は、AIシステムのセキュリティと堅牢性を強化することを目的として、複数の攻撃戦略を含む高度な敵設定を検討する研究者や実践者を呼び起こすのに役立つだろう。
関連論文リスト
- Preference Poisoning Attacks on Reward Model Learning [47.00395978031771]
ペア比較による報酬モデル学習における脆弱性の性質と範囲について検討する。
本稿では,これらの攻撃に対するアルゴリズム的アプローチのクラスとして,勾配に基づくフレームワークと,ランク・バイ・ディスタンス手法のいくつかのバリエーションを提案する。
最高の攻撃は多くの場合、非常に成功しており、最も極端な場合、100%の成功率を達成することができ、データのわずか0.3%が毒殺されている。
論文 参考訳(メタデータ) (2024-02-02T21:45:24Z) - The Space of Adversarial Strategies [6.295859509997257]
機械学習モデルにおける最悪のケース動作を誘発するインプットである逆例は、過去10年間に広く研究されてきた。
最悪の場合(すなわち最適な)敵を特徴づける体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2022-09-09T20:53:11Z) - Membership-Doctor: Comprehensive Assessment of Membership Inference
Against Machine Learning Models [11.842337448801066]
本稿では,様々なメンバーシップ推論攻撃と防衛の大規模測定を行う。
脅威モデル(例えば、同一構造や、シャドーモデルとターゲットモデルとの同一分布)のいくつかの仮定は不要である。
また、実験室のデータセットではなく、インターネットから収集された実世界のデータに対する攻撃を最初に実施しました。
論文 参考訳(メタデータ) (2022-08-22T17:00:53Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - Adversarial Attacks and Detection on Reinforcement Learning-Based
Interactive Recommender Systems [47.70973322193384]
敵の攻撃は、早期にそれらを検出する上で大きな課題となる。
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける攻撃非依存の検出を提案する。
まず, 多様な分布を示すために敵の例を作成し, 潜在的な攻撃を検知して推薦システムを強化した。
論文 参考訳(メタデータ) (2020-06-14T15:41:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。