論文の概要: Membership Inference Attacks as Privacy Tools: Reliability, Disparity and Ensemble
- arxiv url: http://arxiv.org/abs/2506.13972v1
- Date: Mon, 16 Jun 2025 20:22:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.23291
- Title: Membership Inference Attacks as Privacy Tools: Reliability, Disparity and Ensemble
- Title(参考訳): プライバシツールとしてのメンバシップ推論攻撃 - 信頼性、格差、アンサンブル
- Authors: Zhiqi Wang, Chengyu Zhang, Yuetian Chen, Nathalie Baracaldo, Swanand Kadhe, Lei Yu,
- Abstract要約: メンバーシップ推論攻撃(MIA)は、機械学習モデルのプライバシに重大な脅威をもたらす。
MIA以前の研究は、主にAUC、精度、TPR@low FPRなどのパフォーマンス指標に焦点を当てていた。
これらの格差は、プライバシー評価ツールとしてのMIAの信頼性と完全性に重要な意味を持つ。
- 参考スコア(独自算出の注目度): 12.451650669707167
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Membership inference attacks (MIAs) pose a significant threat to the privacy of machine learning models and are widely used as tools for privacy assessment, auditing, and machine unlearning. While prior MIA research has primarily focused on performance metrics such as AUC, accuracy, and TPR@low FPR - either by developing new methods to enhance these metrics or using them to evaluate privacy solutions - we found that it overlooks the disparities among different attacks. These disparities, both between distinct attack methods and between multiple instantiations of the same method, have crucial implications for the reliability and completeness of MIAs as privacy evaluation tools. In this paper, we systematically investigate these disparities through a novel framework based on coverage and stability analysis. Extensive experiments reveal significant disparities in MIAs, their potential causes, and their broader implications for privacy evaluation. To address these challenges, we propose an ensemble framework with three distinct strategies to harness the strengths of state-of-the-art MIAs while accounting for their disparities. This framework not only enables the construction of more powerful attacks but also provides a more robust and comprehensive methodology for privacy evaluation.
- Abstract(参考訳): メンバーシップ推論攻撃(MIA)は、マシンラーニングモデルのプライバシに対して重大な脅威となり、プライバシアセスメント、監査、マシンラーニングアンラーニングのツールとして広く使用されている。
以前のMIA調査では、主にAUC、精度、TPR@low FPRといったパフォーマンス指標(これらのメトリクスを強化する新しい方法を開発するか、プライバシソリューションを評価するためにそれを使う)に焦点を当てていましたが、異なるアタックの相違を見落としていることに気付きました。
これらの差異は、異なる攻撃方法と同一手法の複数のインスタンス化の間にあり、プライバシー評価ツールとしてのMIAの信頼性と完全性に重要な意味を持つ。
本稿では,これらの格差を,カバレッジと安定性分析に基づく新しい枠組みにより体系的に検討する。
広範囲にわたる実験により、MIA、その潜在的な原因、およびプライバシー評価に対するより広範な影響が明らかとなった。
これらの課題に対処するため,現状のMIAの強みを活かし,その相違を考慮しつつ,三つの異なる戦略を持つアンサンブル・フレームワークを提案する。
このフレームワークは、より強力な攻撃の構築を可能にするだけでなく、プライバシー評価のためのより堅牢で包括的な方法論を提供する。
関連論文リスト
- How Breakable Is Privacy: Probing and Resisting Model Inversion Attacks in Collaborative Inference [13.453033795109155]
協調推論は、中間機能をクラウドモデルに伝達することでエッジデバイスの計算効率を向上させる。
モデル逆攻撃(MIA)の難しさを評価するための確立された基準はない。
本稿では、CIにおけるMIAの難易度を評価するための最初の理論的基準を提案し、相互情報、エントロピー、有効情報量などを重要な要因として同定する。
論文 参考訳(メタデータ) (2025-01-01T13:00:01Z) - Model Inversion Attacks: A Survey of Approaches and Countermeasures [59.986922963781]
近年、新しいタイプのプライバシ攻撃であるモデル反転攻撃(MIA)は、トレーニングのためのプライベートデータの機密性を抽出することを目的としている。
この重要性にもかかわらず、総合的な概要とMIAに関する深い洞察を提供する体系的な研究が欠如している。
本調査は、攻撃と防御の両方において、最新のMIA手法を要約することを目的としている。
論文 参考訳(メタデータ) (2024-11-15T08:09:28Z) - FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - MIBench: A Comprehensive Framework for Benchmarking Model Inversion Attack and Defense [42.56467639172508]
Model Inversion (MI)攻撃は、ターゲットモデルの出力情報を活用して、プライバシに敏感なトレーニングデータを再構築することを目的としている。
我々は、モデル反転攻撃と防御の体系的評価のためのMIBenchという最初の実用的なベンチマークを構築した。
論文 参考訳(メタデータ) (2024-10-07T16:13:49Z) - Towards Effective Evaluations and Comparisons for LLM Unlearning Methods [97.2995389188179]
本稿では,大規模言語モデルにおける機械学習評価の精度向上を図る。
評価指標の堅牢性と、競合する目標間のトレードオフという、2つの重要な課題に対処します。
論文 参考訳(メタデータ) (2024-06-13T14:41:00Z) - Exploring Federated Unlearning: Review, Comparison, and Insights [101.64910079905566]
フェデレーション・アンラーニングは、フェデレーション・システムで訓練されたモデルからデータを選択的に除去することを可能にする。
本稿では,既存のフェデレーション・アンラーニング手法について検討し,アルゴリズムの効率,モデル精度への影響,プライバシ保護の有効性について検討する。
フェデレートされたアンラーニング手法を評価するための統一ベンチマークであるOpenFederatedUnlearningフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - "You Can't Fix What You Can't Measure": Privately Measuring Demographic
Performance Disparities in Federated Learning [78.70083858195906]
グループメンバーシップのプライバシを保護しつつ,グループ間でのパフォーマンスの差異を測定するための,差分プライベートなメカニズムを提案する。
我々の結果は、以前の研究の示唆に反して、プライバシ保護は必ずしもフェデレーションモデルの性能格差の特定と矛盾しているわけではないことを示している。
論文 参考訳(メタデータ) (2022-06-24T09:46:43Z) - On the Effectiveness of Regularization Against Membership Inference
Attacks [26.137849584503222]
ディープラーニングモデルは、トレーニングデータに関する情報を漏らすと、しばしばプライバシー上の懸念を引き起こす。
これにより、モデルのトレーニングセットにあるデータポイントがメンバーシップ推論アタック(MIA)によって決定される。
多くの正規化機構が存在するが、MIAに対する効果は体系的に研究されていない。
論文 参考訳(メタデータ) (2020-06-09T15:17:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。