論文の概要: WaKA: Data Attribution using K-Nearest Neighbors and Membership Privacy Principles
- arxiv url: http://arxiv.org/abs/2411.01357v1
- Date: Sat, 02 Nov 2024 20:27:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:47:53.148055
- Title: WaKA: Data Attribution using K-Nearest Neighbors and Membership Privacy Principles
- Title(参考訳): WaKA: K-Nearest Neighborsとメンバシッププライバシ原則によるデータ属性
- Authors: Patrick Mesana, Clément Bénesse, Hadrien Lautraite, Gilles Caporossi, Sébastien Gambs,
- Abstract要約: WaKAは、個々のデータポイントの損失分布への寄与を測定する新しい属性法である。
WaKAは、プライバシーリスクを評価するために、メンバーシップ推論アタック(MIA)としてEmpha reariを使用することができる。
我々は、WAKAの異なる使用法が、さまざまな実世界のデータセットで評価されたことも示している。
- 参考スコア(独自算出の注目度): 3.437769176989657
- License:
- Abstract: In this paper, we introduce WaKA (Wasserstein K-nearest neighbors Attribution), a novel attribution method that leverages principles from the LiRA (Likelihood Ratio Attack) framework and applies them to \( k \)-nearest neighbors classifiers (\( k \)-NN). WaKA efficiently measures the contribution of individual data points to the model's loss distribution, analyzing every possible \( k \)-NN that can be constructed using the training set, without requiring sampling or shadow model training. WaKA can be used \emph{a posteriori} as a membership inference attack (MIA) to assess privacy risks, and \emph{a priori} for data minimization and privacy influence measurement. Thus, WaKA can be seen as bridging the gap between data attribution and membership inference attack (MIA) literature by distinguishing between the value of a data point and its privacy risk. For instance, we show that self-attribution values are more strongly correlated with the attack success rate than the contribution of a point to model generalization. WaKA's different usages were also evaluated across diverse real-world datasets, demonstrating performance very close to LiRA when used as an MIA on \( k \)-NN classifiers, but with greater computational efficiency.
- Abstract(参考訳): 本稿では、LiRA(Likelihood Ratio Attack)フレームワークの原理を取り入れた新しい帰属法であるWaKA(Wasserstein K-nearest neighbors Attribution)を紹介し、それを \(k \)-nearest neighbors classifiers (\(k \)-NN)に適用する。
WaKAはモデルの損失分布に対する個々のデータポイントの寄与を効率的に測定し、サンプリングやシャドウモデルトレーニングを必要とせず、トレーニングセットを使って構築できるあらゆる可能な \(k \)-NN を分析します。
WaKAは、プライバシーリスクを評価するためにメンバーシップ推論攻撃(MIA)として \emph{a reari} と、データ最小化とプライバシ影響測定のために \emph{a priori} を使用することができる。
このように、WAKAはデータポイントの価値とプライバシリスクを区別することで、データ属性とメンバーシップ推論攻撃(MIA)の文献間のギャップを埋めると見なすことができる。
例えば、モデル一般化へのポイントの寄与よりも、自己帰属値は攻撃成功率と強く相関していることを示す。
WaKAの異なる使用法は、様々な実世界のデータセットで評価され、 \(k \)-NN分類器のMIAとして使用する場合、LiRAに非常に近い性能を示したが、計算効率は向上した。
関連論文リスト
- ReCaLL: Membership Inference via Relative Conditional Log-Likelihoods [56.073335779595475]
ReCaLL (Relative Conditional Log-Likelihood) という新しいメンバーシップ推論攻撃(MIA)を提案する。
ReCaLLは、ターゲットデータポイントを非メンバーコンテキストでプレフィックスする場合、条件付きログライクな状態の相対的変化を調べる。
我々は総合的な実験を行い、ReCaLLがWikiMIAデータセット上で最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-06-23T00:23:13Z) - Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Impact of Dataset Properties on Membership Inference Vulnerability of Deep Transfer Learning [8.808963973962278]
クラスごとの例やクラスの数など、プライバシの脆弱性とデータセットプロパティの関係を分析します。
シャドーモデルから算出したスコア分布と統計量から,MIA単位の脆弱性を導出する。
論文 参考訳(メタデータ) (2024-02-07T14:23:01Z) - Assessing Privacy Risks in Language Models: A Case Study on
Summarization Tasks [65.21536453075275]
我々は要約作業に焦点をあて、会員推測(MI)攻撃について調査する。
テキストの類似性や文書修正に対するモデルの抵抗をMI信号として活用する。
我々は、MI攻撃から保護するための要約モデルの訓練と、プライバシとユーティリティの本質的にのトレードオフについて議論する。
論文 参考訳(メタデータ) (2023-10-20T05:44:39Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Out-of-Distribution Detection with Hilbert-Schmidt Independence
Optimization [114.43504951058796]
異常検出タスクはAIの安全性において重要な役割を担っている。
ディープニューラルネットワーク分類器は通常、アウト・オブ・ディストリビューション(OOD)の入力を、信頼性の高いイン・ディストリビューション・クラスに誤って分類する傾向がある。
我々は,OOD検出タスクにおいて実用的かつ理論的に有効な代替確率論的パラダイムを提案する。
論文 参考訳(メタデータ) (2022-09-26T15:59:55Z) - Rethinking Missing Data: Aleatoric Uncertainty-Aware Recommendation [59.500347564280204]
本稿では, Aleatoric Uncertainty-aware Recommendation (AUR) フレームワークを提案する。
AURは、新しい不確実性推定器と通常のレコメンデータモデルで構成されている。
誤ラベルの可能性がペアの可能性を反映しているため、AURは不確実性に応じてレコメンデーションを行う。
論文 参考訳(メタデータ) (2022-09-22T04:32:51Z) - Unlearning Protected User Attributes in Recommendations with Adversarial
Training [10.268369743620159]
協調フィルタリングアルゴリズムは、特定の人口統計やユーザーの保護された情報を含む、基礎となる消費パターンをキャプチャする。
これらの符号化バイアスは、様々な階層のサブグループに提供されるコンテンツのさらなる分離に向けたレコメンデーションシステムの決定に影響を与える可能性がある。
本研究では,RSアルゴリズムの学習的相互作用表現から,ユーザの特定の保護された情報を除去する可能性と課題について検討する。
論文 参考訳(メタデータ) (2022-06-09T13:36:28Z) - Self-Certifying Classification by Linearized Deep Assignment [65.0100925582087]
そこで我々は,PAC-Bayesリスク認定パラダイム内で,グラフ上のメトリックデータを分類するための新しい深層予測器のクラスを提案する。
PAC-Bayesの最近の文献とデータに依存した先行研究に基づいて、この手法は仮説空間上の後続分布の学習を可能にする。
論文 参考訳(メタデータ) (2022-01-26T19:59:14Z) - SHAPr: An Efficient and Versatile Membership Privacy Risk Metric for
Machine Learning [13.952586561595473]
機械学習(ML)モデルのトレーニングに使用されるデータは、センシティブである。
メンバーシップ推論攻撃(MIA)は、特定のデータレコードがMLモデルのトレーニングに使用されたかどうかを判断し、メンバーシップのプライバシを侵害するリスクを負う。
本稿では,Shapley値を用いて個別のトレーニングデータ記録の記憶を定量化するSHAPrを提案する。
論文 参考訳(メタデータ) (2021-12-04T03:45:49Z) - An Extension of Fano's Inequality for Characterizing Model
Susceptibility to Membership Inference Attacks [28.366183028100057]
深層ニューラルネットワークにおけるメンバシップ推論攻撃の成功確率は,入力とアクティベーションの相互情報を用いてバウンドできることを示す。
これにより、メンバーシップ推論攻撃に対するDNNモデルの感受性を測定するために、相互情報を使用することが可能である。
論文 参考訳(メタデータ) (2020-09-17T06:37:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。