論文の概要: Feature Inference Attack on Shapley Values
- arxiv url: http://arxiv.org/abs/2407.11359v1
- Date: Tue, 16 Jul 2024 03:50:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-17 18:32:32.356990
- Title: Feature Inference Attack on Shapley Values
- Title(参考訳): 共有値に対する特徴推論攻撃
- Authors: Xinjian Luo, Yangfan Jiang, Xiaokui Xiao,
- Abstract要約: 特徴推論攻撃を用いたShapley値に基づくモデル解釈可能性手法のプライバシーリスクについて検討する。
私たちは、主要な機械学習プラットフォーム、すなわちGoogle Cloud、Microsoft Azure、IBM aix360に対する提案された攻撃を実行します。
- 参考スコア(独自算出の注目度): 23.046714679720292
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a solution concept in cooperative game theory, Shapley value is highly recognized in model interpretability studies and widely adopted by the leading Machine Learning as a Service (MLaaS) providers, such as Google, Microsoft, and IBM. However, as the Shapley value-based model interpretability methods have been thoroughly studied, few researchers consider the privacy risks incurred by Shapley values, despite that interpretability and privacy are two foundations of machine learning (ML) models. In this paper, we investigate the privacy risks of Shapley value-based model interpretability methods using feature inference attacks: reconstructing the private model inputs based on their Shapley value explanations. Specifically, we present two adversaries. The first adversary can reconstruct the private inputs by training an attack model based on an auxiliary dataset and black-box access to the model interpretability services. The second adversary, even without any background knowledge, can successfully reconstruct most of the private features by exploiting the local linear correlations between the model inputs and outputs. We perform the proposed attacks on the leading MLaaS platforms, i.e., Google Cloud, Microsoft Azure, and IBM aix360. The experimental results demonstrate the vulnerability of the state-of-the-art Shapley value-based model interpretability methods used in the leading MLaaS platforms and highlight the significance and necessity of designing privacy-preserving model interpretability methods in future studies. To our best knowledge, this is also the first work that investigates the privacy risks of Shapley values.
- Abstract(参考訳): 協調ゲーム理論におけるソリューション概念として、Shapleyの価値はモデル解釈可能性の研究で高く評価されており、Google、Microsoft、IBMといった主要なMLaaSプロバイダによって広く採用されている。
しかしながら、Shapley値に基づくモデル解釈可能性法が徹底的に研究されているため、解釈可能性とプライバシが機械学習(ML)モデルの2つの基盤であるにもかかわらず、Shapley値によって引き起こされるプライバシーリスクを考慮する研究者はほとんどいない。
本稿では,特徴推論攻撃を用いたShapley値に基づくモデル解釈可能性手法のプライバシリスクについて検討する。
具体的には2つの敵を紹介します。
第1の敵は、補助データセットに基づいて攻撃モデルをトレーニングし、モデル解釈可能性サービスへのブラックボックスアクセスをトレーニングすることで、プライベート入力を再構築することができる。
第2の敵は、背景知識がなくても、モデル入力と出力の局所的な線形相関を利用して、プライベートな特徴のほとんどを再構築することができる。
私たちは、主要なMLaaSプラットフォーム、すなわちGoogle Cloud、Microsoft Azure、IBM aix360に対する提案された攻撃を実行します。
実験結果は、MLaaSプラットフォームで使用されている最先端のShapley値ベースのモデル解釈可能性メソッドの脆弱性を実証し、将来の研究におけるプライバシ保護モデル解釈可能性メソッドの設計の重要性と必要性を強調した。
われわれの知る限りでは、これはShapleyの価値観のプライバシーリスクを調査する最初の研究でもある。
関連論文リスト
- Shapley Marginal Surplus for Strong Models [0.9831489366502301]
我々は、Shapley値がモデル予測の正確な説明であるが、機械学習モデル自体が真のデータ生成プロセス(DGP)の貧弱な説明であることを示している。
そこで,本研究では,特徴量から推定されるモデル空間を抽出する,新しい変数重要度アルゴリズム,Shapley Marginal Surplus for Strong Modelsを導入する。
論文 参考訳(メタデータ) (2024-08-16T17:06:07Z) - Data Shapley in One Training Run [88.59484417202454]
Data Shapleyは、機械学習コンテキストにおけるデータのコントリビューションに寄与するための、原則化されたフレームワークを提供する。
既存のアプローチでは、計算集約的な異なるデータサブセット上の再学習モデルが必要である。
本稿では、対象とするデータモデルに対するスケーラブルなデータ属性を提供することにより、これらの制限に対処するIn-Run Data Shapleyを紹介する。
論文 参考訳(メタデータ) (2024-06-16T17:09:24Z) - Variational Shapley Network: A Probabilistic Approach to Self-Explaining
Shapley values with Uncertainty Quantification [2.6699011287124366]
シェープ価値は、モデル決定プロセスの解明のための機械学習(ML)の基礎ツールとして現れている。
本稿では,Shapley値の計算を大幅に単純化し,単一のフォワードパスしか必要としない,新しい自己説明手法を提案する。
論文 参考訳(メタデータ) (2024-02-06T18:09:05Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - Assessing Privacy Risks in Language Models: A Case Study on
Summarization Tasks [65.21536453075275]
我々は要約作業に焦点をあて、会員推測(MI)攻撃について調査する。
テキストの類似性や文書修正に対するモデルの抵抗をMI信号として活用する。
我々は、MI攻撃から保護するための要約モデルの訓練と、プライバシとユーティリティの本質的にのトレードオフについて議論する。
論文 参考訳(メタデータ) (2023-10-20T05:44:39Z) - Efficient Shapley Values Estimation by Amortization for Text
Classification [66.7725354593271]
我々は,各入力特徴のシェープ値を直接予測し,追加のモデル評価を行なわずに補正モデルを開発する。
2つのテキスト分類データセットの実験結果から、アモルタイズされたモデルでは、Shapley Valuesを最大60倍のスピードアップで正確に見積もっている。
論文 参考訳(メタデータ) (2023-05-31T16:19:13Z) - Shapley variable importance cloud for machine learning models [4.1359299555083595]
最近開発されたShapley変数重要クラウド(ShapleyVIC)は、包括的で堅牢な変数重要度評価を提供する。
ShapleyVIC推論の利点は実生活予測タスクで実証されている。
より広範なアプリケーションを可能にする機械学習モデルのShapleyVIC実装。
論文 参考訳(メタデータ) (2022-12-16T09:45:22Z) - Self-Destructing Models: Increasing the Costs of Harmful Dual Uses of
Foundation Models [103.71308117592963]
本稿ではメタラーニングと逆学習の技法を活用した自己破壊モデルの学習アルゴリズムを提案する。
小規模な実験では、MLACは、BERTスタイルのモデルが性別識別を行うために再目的化されることをほとんど防ぐことができることを示す。
論文 参考訳(メタデータ) (2022-11-27T21:43:45Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z) - Robustness of Machine Learning Models Beyond Adversarial Attacks [0.0]
本稿では,MLモデルのロバスト性を決定する上で,敵対的ロバスト性や近縁なメトリクスが必ずしも有効な指標ではないことを示す。
アプリケーション毎に個別に入力データの摂動をモデル化するフレキシブルなアプローチを提案する。
これは、現実の摂動が予測を変える可能性を計算する確率論的アプローチと組み合わせられる。
論文 参考訳(メタデータ) (2022-04-21T12:09:49Z) - Exact Shapley Values for Local and Model-True Explanations of Decision
Tree Ensembles [0.0]
決定木アンサンブルの説明にShapley値を適用することを検討する。
本稿では,無作為林に適応し,決定木を増強できる,Shapley値に基づく特徴属性に対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-12-16T20:16:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。