論文の概要: Optimal Fairness under Local Differential Privacy
- arxiv url: http://arxiv.org/abs/2511.16377v1
- Date: Thu, 20 Nov 2025 14:00:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.657564
- Title: Optimal Fairness under Local Differential Privacy
- Title(参考訳): 地域差分プライバシー下における最適公正性
- Authors: Hrad Ghoukasian, Shahab Asoodeh,
- Abstract要約: 本研究では、データ不公平性を低減し、下流分類における公平性を向上するローカル差分プライバシー機構を最適に設計する方法を検討する。
理論的貢献として、識別精度の最適分類器の場合、データの不公平さを減らし、分類の不公平度を低下させることが必然的に証明される。
実験により,本手法は多様なデータセットおよび公正度指標間でデータ不公平性を減少させるため,既存のLCPメカニズムを一貫して上回ることを示した。
- 参考スコア(独自算出の注目度): 2.889268075288957
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate how to optimally design local differential privacy (LDP) mechanisms that reduce data unfairness and thereby improve fairness in downstream classification. We first derive a closed-form optimal mechanism for binary sensitive attributes and then develop a tractable optimization framework that yields the corresponding optimal mechanism for multi-valued attributes. As a theoretical contribution, we establish that for discrimination-accuracy optimal classifiers, reducing data unfairness necessarily leads to lower classification unfairness, thus providing a direct link between privacy-aware pre-processing and classification fairness. Empirically, we demonstrate that our approach consistently outperforms existing LDP mechanisms in reducing data unfairness across diverse datasets and fairness metrics, while maintaining accuracy close to that of non-private models. Moreover, compared with leading pre-processing and post-processing fairness methods, our mechanism achieves a more favorable accuracy-fairness trade-off while simultaneously preserving the privacy of sensitive attributes. Taken together, these results highlight LDP as a principled and effective pre-processing fairness intervention technique.
- Abstract(参考訳): 本研究では、データ不公平性を低減し、下流分類における公平性を向上するローカルディファレンシャルプライバシ(LDP)メカニズムを最適に設計する方法を検討する。
まず、二値性属性に対する閉形式最適機構を導出し、次に、多値属性に対する対応する最適メカニズムを導出するトラクタブル最適化フレームワークを開発する。
理論的貢献として、識別精度の最適分類器の場合、データの不公平さを低減させることは、必ずしも分類の不公平度を低下させ、プライバシーを意識した事前処理と分類公正性の直接的なリンクを提供する。
実験により,提案手法は多様なデータセットと公平度指標間でデータの不公平性を低減しつつ,非プライベートモデルに近い精度を維持しながら,既存のLCPメカニズムを一貫して上回ることを示した。
さらに,先進的な前処理や後処理の公正化手法と比較して,感度特性のプライバシを同時に保ちながら,より良好な精度と公平性のトレードオフを実現する。
これらの結果は, 原則的かつ効果的な事前処理フェアネス介入手法として, LDPが注目されている。
関連論文リスト
- Mitigating Bias in Facial Recognition Systems: Centroid Fairness Loss Optimization [9.537960917804993]
公正なAIシステムの社会的需要は、新しい公正性基準を満たす予測モデルを開発する研究コミュニティに圧力を与えている。
特に、特定の人口セグメントにまたがる特定の顔認識(FR)システムによる誤差の変動は、後者の展開を損なう。
本稿では,Centroid-based scores に作用する回帰損失を最適化することにより,事前学習されたFRモデルの公平性を改善するための新しいポストプロセッシング手法を提案する。
論文 参考訳(メタデータ) (2025-04-27T22:17:44Z) - Leveraging Robust Optimization for LLM Alignment under Distribution Shifts [51.74394601039711]
人間の値に整合した出力を生成するために、大規模言語モデルを操る上で、優先順位アライメント手法はますます重要になっている。
このようなシフトに拘わらず、好みのアライメントを改善する新しい分布対応最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-08T09:14:38Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Stochastic Methods for AUC Optimization subject to AUC-based Fairness
Constraints [51.12047280149546]
公正な予測モデルを得るための直接的なアプローチは、公正な制約の下で予測性能を最適化することでモデルを訓練することである。
フェアネスを考慮した機械学習モデルのトレーニング問題を,AUCに基づくフェアネス制約のクラスを対象とする最適化問題として定式化する。
フェアネス測定値の異なる実世界のデータに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-23T22:29:08Z) - Learning Antidote Data to Individual Unfairness [23.119278763970037]
個人の公平さは、個々のケースに対する公平な扱いを記述する上で不可欠な概念である。
従来の研究では、個人的公正性は予測不変問題として特徴づけられていた。
我々は,予測ユーティリティの最小あるいはゼロのコストで,個人の不公平さを抑える方法を示す。
論文 参考訳(メタデータ) (2022-11-29T03:32:39Z) - Fair and Optimal Classification via Post-Processing [10.163721748735801]
本稿では、分類問題における人口統計学の特質的トレードオフの完全な評価について述べる。
ランダム化および属性認識フェア分類器によって達成可能な最小誤差率は、ワッサーシュタイン・バリセンタ問題の最適値によって与えられることを示す。
論文 参考訳(メタデータ) (2022-11-03T00:04:04Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Group-Aware Threshold Adaptation for Fair Classification [9.496524884855557]
複数のフェアネス制約を克服する新しいポストプロセッシング手法を提案する。
理論的には,同条件下での既存手法よりも近似最適に近い上界を許容する。
実験の結果,本手法は最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-11-08T04:36:37Z) - Accuracy and Fairness Trade-offs in Machine Learning: A Stochastic
Multi-Objective Approach [0.0]
機械学習を実生活の意思決定システムに適用すると、予測結果は機密性の高い属性を持つ人々に対して差別され、不公平になる可能性がある。
公正機械学習における一般的な戦略は、予測損失の最小化において、制約や罰則として公正さを含めることである。
本稿では,多目的最適化問題を定式化して公平性を扱うための新しい手法を提案する。
論文 参考訳(メタデータ) (2020-08-03T18:51:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。