論文の概要: Utility-Fairness Trade-Offs and How to Find Them
- arxiv url: http://arxiv.org/abs/2404.09454v2
- Date: Wed, 24 Apr 2024 00:08:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-25 16:05:24.565851
- Title: Utility-Fairness Trade-Offs and How to Find Them
- Title(参考訳): ユーティリティ・フェアネス・トレードオフと課題の発見方法
- Authors: Sepehr Dehdashtian, Bashir Sadeghi, Vishnu Naresh Boddeti,
- Abstract要約: データ・スペースとラベル・スペースのトレードオフという2つのユーティリティ・フェアネスのトレードオフを紹介します。
本稿では,データサンプルから与えられた予測タスクとグループフェアネス定義のトレードオフを数値的に定量化する方法であるU-FaTEを提案する。
1000以上の事前訓練されたモデルからのフェア表現学習手法と表現の広範な評価により、現在のほとんどのアプローチは、推定され、達成可能なフェアネスユーティリティトレードオフからかけ離れていることが明らかとなった。
- 参考スコア(独自算出の注目度): 14.1278892335105
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When building classification systems with demographic fairness considerations, there are two objectives to satisfy: 1) maximizing utility for the specific task and 2) ensuring fairness w.r.t. a known demographic attribute. These objectives often compete, so optimizing both can lead to a trade-off between utility and fairness. While existing works acknowledge the trade-offs and study their limits, two questions remain unanswered: 1) What are the optimal trade-offs between utility and fairness? and 2) How can we numerically quantify these trade-offs from data for a desired prediction task and demographic attribute of interest? This paper addresses these questions. We introduce two utility-fairness trade-offs: the Data-Space and Label-Space Trade-off. The trade-offs reveal three regions within the utility-fairness plane, delineating what is fully and partially possible and impossible. We propose U-FaTE, a method to numerically quantify the trade-offs for a given prediction task and group fairness definition from data samples. Based on the trade-offs, we introduce a new scheme for evaluating representations. An extensive evaluation of fair representation learning methods and representations from over 1000 pre-trained models revealed that most current approaches are far from the estimated and achievable fairness-utility trade-offs across multiple datasets and prediction tasks.
- Abstract(参考訳): 人口的公平性を考慮した分類システムを構築する場合、満足すべき目的が2つある。
1) 特定業務の効用の最大化及び
2) 既知人口統計属性の公平性を確保すること。
これらの目的はしばしば競合するので、両方の最適化は実用性と公正性のトレードオフにつながる可能性がある。
既存の研究はトレードオフを認め、その限界を研究するが、2つの疑問は未解決のままである。
1)実用性と公正性の最適なトレードオフは何か。
そして
2)データから所望の予測タスクと興味の人口統計属性を数値的に定量化する方法。
この論文はこれらの疑問に対処する。
データ・スペースとラベル・スペースのトレードオフという2つのユーティリティ・フェアネスのトレードオフを紹介します。
トレードオフによって、ユーティリティフェアネスプレーン内の3つの領域が明らかになり、完全に部分的に可能で不可能なものが説明される。
本稿では,データサンプルから与えられた予測タスクとグループフェアネス定義のトレードオフを数値的に定量化する方法であるU-FaTEを提案する。
トレードオフに基づいて、表現を評価するための新しいスキームを導入する。
1000以上の事前訓練されたモデルからのフェア表現学習手法と表現の広範な評価により、現在のアプローチのほとんどは、複数のデータセットや予測タスクをまたいだ、推定および達成可能なフェアネスユーティリティトレードオフからかけ離れていることが明らかとなった。
関連論文リスト
- Towards Harmless Rawlsian Fairness Regardless of Demographic Prior [57.30787578956235]
トレーニングセットに事前の人口統計が提供されない場合に,有効性を損なうことなく公平性を達成する可能性を探る。
本稿では,経験的損失の最適セット内でのトレーニング損失の分散を最小限に抑えるため,VFairという簡単な手法を提案する。
論文 参考訳(メタデータ) (2024-11-04T12:40:34Z) - A Benchmark for Fairness-Aware Graph Learning [58.515305543487386]
本稿では,10の代表的な公正性を考慮したグラフ学習手法に関する広範なベンチマークを示す。
我々の詳細な分析は、既存の手法の強みと限界に関する重要な洞察を明らかにしている。
論文 参考訳(メタデータ) (2024-07-16T18:43:43Z) - Trusting Fair Data: Leveraging Quality in Fairness-Driven Data Removal Techniques [0.0]
我々は、人口の公正な表現を目的としたトレーニングセットから特定のデータポイントを除去するバイアス軽減技術に対処する。
フェアネスに加えて、サブセットが満たさなければならない追加の要件と目的を提案する。
論文 参考訳(メタデータ) (2024-05-21T16:51:28Z) - A Theoretical Approach to Characterize the Accuracy-Fairness Trade-off
Pareto Frontier [42.18013955576355]
正確さと公正さのトレードオフは、公正な機械学習の文献でよく観察されている。
この研究は、精度-公正トレードオフの形状を特徴付けることによって理論的枠組みの開発を目指している。
提案した研究は、精度と公正性のトレードオフの深い理解を可能にし、現在の公正な機械学習研究を新たなフロンティアに押し上げる。
論文 参考訳(メタデータ) (2023-10-19T14:35:26Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - Fairness Explainability using Optimal Transport with Applications in
Image Classification [0.46040036610482665]
機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
論文 参考訳(メタデータ) (2023-08-22T00:10:23Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Impossibility results for fair representations [12.483260526189447]
我々は、それを用いて訓練された異なるタスクに対して、分類器の公平性を保証できないことを論じる。
Odds Equalityのようなより洗練された公正の概念は、タスク固有のラベル付け規則を考慮していない表現によって保証されない。
論文 参考訳(メタデータ) (2021-07-07T21:12:55Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Machine learning fairness notions: Bridging the gap with real-world
applications [4.157415305926584]
フェアネスは、機械学習予測システムが特定の個人やサブ人口全体に対して差別しないことを保証する重要な要件として現れた。
本稿では,多くの事例とシナリオを通じて,公平性の概念間の微妙な関係について述べる。
論文 参考訳(メタデータ) (2020-06-30T13:01:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。