論文の概要: FairDP: Certified Fairness with Differential Privacy
- arxiv url: http://arxiv.org/abs/2305.16474v1
- Date: Thu, 25 May 2023 21:07:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 18:17:36.881065
- Title: FairDP: Certified Fairness with Differential Privacy
- Title(参考訳): fairdp: 異なるプライバシーを持つ認定公正性
- Authors: Khang Tran, Ferdinando Fioretto, Issa Khalil, My T. Thai, NhatHai Phan
- Abstract要約: 本稿では,FairDPについて紹介する。FairDPは,差分プライバシー(DP)と公正性を同時に確保するためのメカニズムである。
FairDPは、グループ固有のクリッピング用語を使用して、DPの異なる影響を評価し、バウンドする、独立した個別グループのためのモデルによって運営される。
トレーニングプロセスを通じて、このメカニズムはグループモデルからの知識を統合し、下流タスクのプライバシ、ユーティリティ、公正性のバランスをとる包括的なモデルを定式化する。
- 参考スコア(独自算出の注目度): 47.78875865923179
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces FairDP, a novel mechanism designed to simultaneously
ensure differential privacy (DP) and fairness. FairDP operates by independently
training models for distinct individual groups, using group-specific clipping
terms to assess and bound the disparate impacts of DP. Throughout the training
process, the mechanism progressively integrates knowledge from group models to
formulate a comprehensive model that balances privacy, utility, and fairness in
downstream tasks. Extensive theoretical and empirical analyses validate the
efficacy of FairDP, demonstrating improved trade-offs between model utility,
privacy, and fairness compared with existing methods.
- Abstract(参考訳): 本稿では,差分プライバシー(dp)と公平性を同時に確保する新しいメカニズムであるfairdpについて述べる。
fairdpは独立した個別グループのためのモデルを訓練し、グループ固有のクリッピング用語を用いてdpの異なる影響を評価し、限定する。
トレーニングプロセスを通じて、このメカニズムはグループモデルからの知識を段階的に統合し、下流タスクにおけるプライバシ、ユーティリティ、公平性のバランスをとる包括的なモデルを定式化する。
広範に理論的および実証的な分析により、FairDPの有効性が検証され、モデルユーティリティ、プライバシ、公正性のトレードオフが改善された。
関連論文リスト
- Universally Harmonizing Differential Privacy Mechanisms for Federated Learning: Boosting Accuracy and Convergence [22.946928984205588]
ディファレンシャル・プライベート・フェデレーション・ラーニング(DP-FL)は協調モデルトレーニングにおいて有望な手法である。
本稿では,任意のランダム化機構を普遍的に調和させる最初のDP-FLフレームワーク(UDP-FL)を提案する。
その結果,UDP-FLは異なる推論攻撃に対して強い耐性を示すことがわかった。
論文 参考訳(メタデータ) (2024-07-20T00:11:59Z) - Positive and Unlabeled Data: Model, Estimation, Inference, and Classification [10.44075062541605]
本研究では、二重指数傾斜モデル(DETM)による正・ラベルなし(PU)データへの新たなアプローチを提案する。
従来の手法は、完全にランダム(SCAR)PUデータでのみ適用されるため、しばしば不足する。
我々のDEMの二重構造は、ランダムPUデータで選択されたより複雑で未探索な構造を効果的に許容する。
論文 参考訳(メタデータ) (2024-07-13T00:57:04Z) - Incentives in Private Collaborative Machine Learning [56.84263918489519]
コラボレーション型機械学習は、複数のパーティのデータに基づいてモデルをトレーニングする。
インセンティブとして差分プライバシー(DP)を導入する。
合成および実世界のデータセットに対するアプローチの有効性と実用性を実証的に実証した。
論文 参考訳(メタデータ) (2024-04-02T06:28:22Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - Controllable Guarantees for Fair Outcomes via Contrastive Information
Estimation [32.37031528767224]
トレーニングデータセットにおけるバイアスの制御は、下流のアプリケーションで異なるグループ間で平等に扱われることを保証するために不可欠である。
対比情報推定器に基づく相互情報によるパリティ制御の効果的な方法を示す。
uci成人および遺産健康データセットに対する我々のアプローチをテストし、このアプローチが所望のパリティ閾値にまたがってより有益な表現を提供することを実証する。
論文 参考訳(メタデータ) (2021-01-11T18:57:33Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。