論文の概要: Fairness Meets Privacy: Integrating Differential Privacy and Demographic Parity in Multi-class Classification
- arxiv url: http://arxiv.org/abs/2511.18876v1
- Date: Mon, 24 Nov 2025 08:31:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.109122
- Title: Fairness Meets Privacy: Integrating Differential Privacy and Demographic Parity in Multi-class Classification
- Title(参考訳): Fairnessがプライバシと出会う - 多クラス分類における差別的プライバシとデモグラフィックパーティの統合
- Authors: Lilian Say, Christophe Denis, Rafael Pinot,
- Abstract要約: 差分プライバシーは、公平性保証に最小限の影響を与える公平性向上パイプラインに統合可能であることを示す。
我々はDP2DPと呼ばれるポストプロセッシングアルゴリズムを設計し、人口統計と差分プライバシーの両方を強制する。
分析の結果,我々のアルゴリズムは,文献から得られる最良な非私的手法と基本的に同じ割合で,その人口的平等目標に向かって収束していることが判明した。
- 参考スコア(独自算出の注目度): 6.28122931748758
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing use of machine learning in sensitive applications demands algorithms that simultaneously preserve data privacy and ensure fairness across potentially sensitive sub-populations. While privacy and fairness have each been extensively studied, their joint treatment remains poorly understood. Existing research often frames them as conflicting objectives, with multiple studies suggesting that strong privacy notions such as differential privacy inevitably compromise fairness. In this work, we challenge that perspective by showing that differential privacy can be integrated into a fairness-enhancing pipeline with minimal impact on fairness guarantees. We design a postprocessing algorithm, called DP2DP, that enforces both demographic parity and differential privacy. Our analysis reveals that our algorithm converges towards its demographic parity objective at essentially the same rate (up logarithmic factor) as the best non-private methods from the literature. Experiments on both synthetic and real datasets confirm our theoretical results, showing that the proposed algorithm achieves state-of-the-art accuracy/fairness/privacy trade-offs.
- Abstract(参考訳): センシティブなアプリケーションにおける機械学習の利用の増加は、データのプライバシを同時に保持し、潜在的にセンシティブなサブ人口間で公正性を確保するアルゴリズムを要求する。
プライバシーと公平性は広く研究されているが、彼らの共同治療はいまだに理解されていない。
既存の研究は、しばしば矛盾する目標とみなし、複数の研究は、差分プライバシーのような強いプライバシー概念が必然的に公正を損なうことを示唆している。
本研究は, 公平性保証に最小限の影響を及ぼすことなく, 偏微分プライバシーを公平性向上パイプラインに統合できることを示すことによって, その視点に挑戦する。
我々はDP2DPと呼ばれるポストプロセッシングアルゴリズムを設計し、人口統計と差分プライバシーの両方を強制する。
分析の結果,我々のアルゴリズムは,文献から得られる非私的手法と基本的に同じ割合(対数係数の上昇)で,その人口的平等目標に向かって収束していることが判明した。
合成データセットと実データセットの両方の実験により、提案アルゴリズムが最先端の精度/公正/プライバシトレードオフを達成することを示す理論結果が確認された。
関連論文リスト
- Accurate Target Privacy Preserving Federated Learning Balancing Fairness and Utility [28.676852732262407]
フェデレートラーニング(FL)は、データ共有なしで協調的なモデルトレーニングを可能にする。
我々は、この多目的最適化をゼロサムゲームに変換する微分プライベートフェアFLアルゴリズムを導入する。
我々の理論的分析は、驚くべき逆関係、すなわちより厳格なプライバシー保護が、人口統計バイアスを検出し修正するシステムの能力を制限していることを示している。
論文 参考訳(メタデータ) (2025-10-30T07:14:55Z) - Enforcing Demographic Coherence: A Harms Aware Framework for Reasoning about Private Data Release [14.939460540040459]
データプライバシに必要であると主張するプライバシ攻撃にインスパイアされた、人口統計コヒーレンスを導入します。
我々のフレームワークは信頼性評価予測に重点を置いており、ほぼすべてのデータインフォームドプロセスから蒸留することができる。
差分的にプライベートなデータリリースはすべて、人口統計学的にコヒーレントであること、および、差分的にプライベートではない人口統計学的にコヒーレントなアルゴリズムがあることを実証する。
論文 参考訳(メタデータ) (2025-02-04T20:42:30Z) - Differentially Private Random Feature Model [47.35176457481132]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - A Stochastic Optimization Framework for Private and Fair Learning From Decentralized Data [14.748203847227542]
プライベート・フェア・フェデレーション・ラーニング(FL)のための新しいアルゴリズムを開発した。
我々のアルゴリズムは、サイロ間レコードレベル差分プライバシー(ISRL-DP)を満たす。
実験では、さまざまなプライバシレベルにわたるアルゴリズムのトレードオフとして、最先端の公正性・正確性フレームワークが実証されている。
論文 参考訳(メタデータ) (2024-11-12T15:51:35Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Private Estimation when Data and Privacy Demands are Correlated [5.755004576310333]
微分プライバシーは、統計クエリーのプライバシーを確保するための現在のゴールドスタンダードである。
単変量データに対する経験的平均推定の問題とカテゴリーデータに対する周波数推定について考察する。
提案アルゴリズムは,PAC誤差と平均二乗誤差の両方で理論的性能を保証する。
論文 参考訳(メタデータ) (2024-07-15T22:46:02Z) - Privacy at a Price: Exploring its Dual Impact on AI Fairness [24.650648702853903]
機械学習モデルにおける差分プライバシーは、予測精度に関して異なる階層群に不平等に影響を及ぼすことを示した。
これは公平性への懸念を招き、パフォーマンスのバイアスとして現れます。
微分プライベート勾配降下ML法における勾配クリッピングの実装は、DPノイズの公平性に対する負の影響を軽減することができる。
論文 参考訳(メタデータ) (2024-04-15T00:23:41Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。