論文の概要: On the Fairness of Privacy Protection: Measuring and Mitigating the Disparity of Group Privacy Risks for Differentially Private Machine Learning
- arxiv url: http://arxiv.org/abs/2510.09114v1
- Date: Fri, 10 Oct 2025 08:09:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:48.403167
- Title: On the Fairness of Privacy Protection: Measuring and Mitigating the Disparity of Group Privacy Risks for Differentially Private Machine Learning
- Title(参考訳): プライバシ保護の公正性について--差分私的機械学習におけるグループプライバシリスクの格差の測定と緩和-
- Authors: Zhi Yang, Changwu Huang, Ke Tang, Xin Yao,
- Abstract要約: データレコードの最悪のプライバシーリスクを効率的に評価できる新しい会員推論ゲームを導入する。
提案アルゴリズムは,グループプライバシリスクの格差を効果的に低減し,DPMLにおけるプライバシ保護の公平性を高める。
- 参考スコア(独自算出の注目度): 11.838077209919875
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While significant progress has been made in conventional fairness-aware machine learning (ML) and differentially private ML (DPML), the fairness of privacy protection across groups remains underexplored. Existing studies have proposed methods to assess group privacy risks, but these are based on the average-case privacy risks of data records. Such approaches may underestimate the group privacy risks, thereby potentially underestimating the disparity across group privacy risks. Moreover, the current method for assessing the worst-case privacy risks of data records is time-consuming, limiting their practical applicability. To address these limitations, we introduce a novel membership inference game that can efficiently audit the approximate worst-case privacy risks of data records. Experimental results demonstrate that our method provides a more stringent measurement of group privacy risks, yielding a reliable assessment of the disparity in group privacy risks. Furthermore, to promote privacy protection fairness in DPML, we enhance the standard DP-SGD algorithm with an adaptive group-specific gradient clipping strategy, inspired by the design of canaries in differential privacy auditing studies. Extensive experiments confirm that our algorithm effectively reduces the disparity in group privacy risks, thereby enhancing the fairness of privacy protection in DPML.
- Abstract(参考訳): 従来のフェアネス対応機械学習(ML)と微分プライベートML(DPML)では大きな進歩があったが、グループ間でのプライバシ保護の公正さはいまだに調査されていない。
既存の研究では、グループプライバシのリスクを評価する方法が提案されているが、これらはデータレコードの平均的なプライバシのリスクに基づいている。
このようなアプローチはグループプライバシのリスクを過小評価し、グループプライバシのリスク間の格差を過小評価する可能性がある。
さらに、データレコードの最悪のプライバシーリスクを評価するための現在の方法は、その実用性を制限するのに時間を要する。
これらの制約に対処するため、データレコードの最悪のプライバシーリスクを効率的に監査できる新しい会員推論ゲームを導入する。
実験の結果,本手法はグループプライバシリスクをより厳密に測定し,グループプライバシリスクの相違について信頼性の高い評価を行うことができた。
さらに,DPMLにおけるプライバシ保護の公平性を促進するため,差分プライバシー監査研究におけるカナリアの設計に着想を得て,適応型グループ固有の勾配クリッピング戦略を用いて,標準DP-SGDアルゴリズムを強化した。
大規模な実験により,本アルゴリズムはグループプライバシーリスクの格差を効果的に低減し,DPMLにおけるプライバシ保護の公平性を高めることが確認された。
関連論文リスト
- Theoretically Unmasking Inference Attacks Against LDP-Protected Clients in Federated Vision Models [22.023648710005734]
フェデレーション学習は、直接的なデータ共有を避けながら、サーバの調整を通じてクライアント間の協調学習を可能にする。
メンバーシップ推論攻撃(MIA)に関する最近の研究は、この概念に異議を唱えており、未保護のトレーニングデータに対する高い成功率を示している。
完全連結層や自己アテンション層の脆弱性を利用する低ポリノミカル時間MIAの成功率について理論的に低い境界を導出する。
論文 参考訳(メタデータ) (2025-06-16T21:48:11Z) - A Survey on Privacy Risks and Protection in Large Language Models [13.602836059584682]
大規模言語モデル(LLM)は多様なアプリケーションにますます統合され、プライバシーの懸念が高まっている。
この調査は、LCMに関連するプライバシーリスクの包括的概要を提供し、これらの課題を軽減するための現在のソリューションを調べます。
論文 参考訳(メタデータ) (2025-05-04T03:04:07Z) - Can Differentially Private Fine-tuning LLMs Protect Against Privacy Attacks? [8.189149471520542]
細調整された大規模言語モデル(LLM)は、特定のタスクに適応するための重要な戦略となっている。
差分プライバシー(DP)はそのような漏洩に対して強力な理論的保証を提供するが、LLMにおける経験的プライバシーの有効性は未だ不明である。
本稿では,DPが微調整方法やプライバシー予算に与える影響を体系的に検討する。
論文 参考訳(メタデータ) (2025-04-28T05:34:53Z) - Multi-P$^2$A: A Multi-perspective Benchmark on Privacy Assessment for Large Vision-Language Models [65.2761254581209]
LVLM(Large Vision-Language Models)21個のオープンソースと2個のクローズドソースのプライバシ保護機能の評価を行った。
Multi-P$2$Aに基づいて、21のオープンソースと2つのクローズドソースLVLMのプライバシ保護機能を評価する。
以上の結果から,現在のLVLMは一般にプライバシー侵害のリスクが高いことが明らかとなった。
論文 参考訳(メタデータ) (2024-12-27T07:33:39Z) - Enhancing Feature-Specific Data Protection via Bayesian Coordinate Differential Privacy [55.357715095623554]
ローカル微分プライバシー(LDP)は、ユーザーが外部の関係者を信頼することなく、強力なプライバシー保証を提供する。
本稿では,ベイジアン・フレームワークであるベイジアン・コーディネート・ディファレンシャル・プライバシ(BCDP)を提案する。
論文 参考訳(メタデータ) (2024-10-24T03:39:55Z) - The Data Minimization Principle in Machine Learning [61.17813282782266]
データ最小化は、収集、処理、保持されるデータの量を減らすことを目的としている。
様々な国際データ保護規制によって支持されている。
しかし、厳密な定式化が欠如しているため、その実践的な実装は依然として課題である。
論文 参考訳(メタデータ) (2024-05-29T19:40:27Z) - Improving the Variance of Differentially Private Randomized Experiments through Clustering [16.166525280886578]
差分的プライベートなメカニズムであるCluster-DPを提案する。
より高品質なクラスタを選択することで,プライバシー保証を損なうことなく,分散ペナルティを低減できることを示す。
論文 参考訳(メタデータ) (2023-08-02T05:51:57Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。