論文の概要: Learning with Impartiality to Walk on the Pareto Frontier of Fairness,
Privacy, and Utility
- arxiv url: http://arxiv.org/abs/2302.09183v1
- Date: Fri, 17 Feb 2023 23:23:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 20:09:49.839745
- Title: Learning with Impartiality to Walk on the Pareto Frontier of Fairness,
Privacy, and Utility
- Title(参考訳): 公正・プライバシ・ユーティリティのパレートフロンティアを歩むための公平さによる学習
- Authors: Mohammad Yaghini, Patty Liu, Franziska Boenisch, Nicolas Papernot
- Abstract要約: 機械学習パイプラインは、別の目的を優先すべきではない、と私たちは主張する。
本稿では,目的間の固有のトレードオフを示す,公平に特定されたモデルを提案する。
プライバシを意識したMLパイプラインに、公正さの緩和が組み込まれるべきかどうかという疑問に対する回答を提供する。
- 参考スコア(独自算出の注目度): 28.946180502706504
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deploying machine learning (ML) models often requires both fairness and
privacy guarantees. Both of these objectives present unique trade-offs with the
utility (e.g., accuracy) of the model. However, the mutual interactions between
fairness, privacy, and utility are less well-understood. As a result, often
only one objective is optimized, while the others are tuned as
hyper-parameters. Because they implicitly prioritize certain objectives, such
designs bias the model in pernicious, undetectable ways. To address this, we
adopt impartiality as a principle: design of ML pipelines should not favor one
objective over another. We propose impartially-specified models, which provide
us with accurate Pareto frontiers that show the inherent trade-offs between the
objectives. Extending two canonical ML frameworks for privacy-preserving
learning, we provide two methods (FairDP-SGD and FairPATE) to train
impartially-specified models and recover the Pareto frontier. Through
theoretical privacy analysis and a comprehensive empirical study, we provide an
answer to the question of where fairness mitigation should be integrated within
a privacy-aware ML pipeline.
- Abstract(参考訳): 機械学習(ML)モデルをデプロイするには、公正性とプライバシ保証の両方が必要となることが多い。
これらの目的のどちらも、モデルの実用性(例えば精度)とユニークなトレードオフを示す。
しかし、公平さ、プライバシー、ユーティリティ間の相互の相互作用は、あまり理解されていない。
その結果、しばしば1つの目的だけを最適化し、他の目的をハイパーパラメータとして調整する。
特定の目的を暗黙的に優先順位付けするため、そのような設計は悪質で検出不可能な方法でモデルを偏見する。
mlパイプラインの設計は、他の目標よりもひとつの目標を優先すべきではありません。
我々は、目標間の固有のトレードオフを示す正確なパレートフロンティアを提供する、公平に特定されたモデルを提案する。
プライバシ保護学習のための2つの標準MLフレームワークを拡張し、不特定モデルをトレーニングし、Paretoフロンティアを回復する2つの方法(FairDP-SGDとFairPATE)を提供する。
理論的プライバシ分析と包括的実証研究を通じて、プライバシを意識したMLパイプラインにフェアネス緩和を組み込むべきかという疑問に対する回答を提供する。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - CorBin-FL: A Differentially Private Federated Learning Mechanism using Common Randomness [6.881974834597426]
Federated Learning (FL)は、分散機械学習のための有望なフレームワークとして登場した。
相関2値量子化を用いて差分プライバシーを実現するプライバシー機構であるCorBin-FLを導入する。
また,PLDP,ユーザレベル,サンプルレベルの中央差分プライバシー保証に加えて,AugCorBin-FLも提案する。
論文 参考訳(メタデータ) (2024-09-20T00:23:44Z) - Fairness-Aware Meta-Learning via Nash Bargaining [63.44846095241147]
本稿では,機械学習におけるグループレベルの公平性の問題に対処する2段階のメタ学習フレームワークを提案する。
第1段階では、過度な競合を解決するためにNash Bargaining Solution(NBS)を使用して、モデルをステアリングする。
6つのキーフェアネスデータセットと2つの画像分類タスクにおいて、様々なフェアネス目標に対して経験的効果を示す。
論文 参考訳(メタデータ) (2024-06-11T07:34:15Z) - De-amplifying Bias from Differential Privacy in Language Model
Fine-tuning [10.847913815093179]
公正性とプライバシは、機械学習(ML)実践者がしばしばモデルで運用しようとする2つの重要な価値である。
大規模言語モデルを微調整した場合,DPは性別,人種,宗教的偏見を増幅することを示す。
本稿では, バイアスに対処する方法として, DPによるバイアス増幅の軽減が知られている。
論文 参考訳(メタデータ) (2024-02-07T00:30:58Z) - Marginal Debiased Network for Fair Visual Recognition [59.05212866862219]
本稿では,デバイアス表現を学習するための新しい限界脱バイアスネットワーク(MDN)を提案する。
我々のMDNは、表現不足のサンプルに対して顕著な性能を達成できる。
論文 参考訳(メタデータ) (2024-01-04T08:57:09Z) - Automated discovery of trade-off between utility, privacy and fairness
in machine learning models [8.328861861105889]
手動制約設定プロセスによって達成された既知の結果の再現にPFairDPをどのように利用できるかを示す。
さらに,複数のモデルとデータセットを用いたPFairDPの有効性を示す。
論文 参考訳(メタデータ) (2023-11-27T10:28:44Z) - Holistic Survey of Privacy and Fairness in Machine Learning [10.399352534861292]
プライバシと公正性は、責任ある人工知能(AI)と信頼できる機械学習(ML)の重要な柱である
かなりの関心があるにもかかわらず、これらの2つの目的がMLモデルにどのように同時に統合できるかを解明するために、より詳細な研究が必要である。
我々は、教師なし、教師なし、半教師なし、強化学習を含む、MLにおけるプライバシーと公正性の徹底的なレビューを提供する。
論文 参考訳(メタデータ) (2023-07-28T23:39:29Z) - Universal Semi-supervised Model Adaptation via Collaborative Consistency
Training [92.52892510093037]
我々は、Universal Semi-supervised Model Adaptation (USMA)と呼ばれる現実的で挑戦的なドメイン適応問題を導入する。
本稿では,2つのモデル間の予測整合性を規則化する協調的整合性トレーニングフレームワークを提案する。
実験により,いくつかのベンチマークデータセットにおける本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-07-07T08:19:40Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Fair Bayesian Optimization [25.80374249896801]
機械学習(ML)モデルの性能を最適化するために、一般的な制約付きベイズ最適化フレームワークを導入する。
我々は、ランダムな森林、ブースティング、ニューラルネットワークなど、さまざまな人気モデルに公平性制約のあるBOを適用した。
提案手法は,モデル固有の公正性制約を強制する特殊な手法と競合することを示す。
論文 参考訳(メタデータ) (2020-06-09T08:31:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。