論文の概要: Learning Fair Representations with High-Confidence Guarantees
- arxiv url: http://arxiv.org/abs/2310.15358v1
- Date: Mon, 23 Oct 2023 20:43:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 21:29:19.376026
- Title: Learning Fair Representations with High-Confidence Guarantees
- Title(参考訳): 高信頼保証による公平表現の学習
- Authors: Yuhong Luo, Austin Hoag, Philip S. Thomas
- Abstract要約: 本稿では,Fair Representation Learning with High-confidence Guarantees (FRG) frameworkを紹介する。
FRGは、すべての下流モデルとタスクにおける不公平性を制限するために、高信頼の保証を提供する。
複数の下流モデルやタスクに対して, FRG が上界不公平であることを示す。
- 参考スコア(独自算出の注目度): 17.998584978924697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Representation learning is increasingly employed to generate representations
that are predictive across multiple downstream tasks. The development of
representation learning algorithms that provide strong fairness guarantees is
thus important because it can prevent unfairness towards disadvantaged groups
for all downstream prediction tasks. To prevent unfairness towards
disadvantaged groups in all downstream tasks, it is crucial to provide
representation learning algorithms that provide fairness guarantees. In this
paper, we formally define the problem of learning representations that are fair
with high confidence. We then introduce the Fair Representation learning with
high-confidence Guarantees (FRG) framework, which provides high-confidence
guarantees for limiting unfairness across all downstream models and tasks, with
user-defined upper bounds. After proving that FRG ensures fairness for all
downstream models and tasks with high probability, we present empirical
evaluations that demonstrate FRG's effectiveness at upper bounding unfairness
for multiple downstream models and tasks.
- Abstract(参考訳): 表現学習は、複数の下流タスクで予測される表現を生成するためにますます使われています。
そのため、下流予測タスクにおいて不公平なグループに対する不公平を防止できるため、強い公平性を保証する表現学習アルゴリズムの開発が重要である。
下流タスクにおける不当なグループに対する不公平さを防止するためには、公平性を保証する表現学習アルゴリズムを提供することが不可欠である。
本稿では,信頼度の高い表現を学習する際の問題を正式に定義する。
次に,すべての下流モデルとタスクに対して不公平を制限し,ユーザ定義の上界を持つ高信頼保証(frg)フレームワークを用いた公正表現学習を導入する。
FRGが全ての下流モデルとタスクに対して高い確率で公平性を保証することを証明した後、複数の下流モデルとタスクに対する上限不公平性におけるFRGの有効性を示す経験的評価を示す。
関連論文リスト
- FairDgcl: Fairness-aware Recommendation with Dynamic Graph Contrastive Learning [48.38344934125999]
提案手法は,高品質なデータ拡張を実現し,コメンデーションフェアネスを改善する方法である。
具体的には,動的グラフ対逆学習フレームワークであるFairDgclを提案する。
FairDgclは、公正さと精度の両方を持つ拡張表現を同時に生成できることを示す。
論文 参考訳(メタデータ) (2024-10-23T04:43:03Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - Fair Ranking with Noisy Protected Attributes [25.081136190260015]
商品の社会的特質が無作為かつ独立に摂動するモデルの下で、公平な問題を考察する。
本稿では,グループフェアネス要件と,社会的に安定な属性の摂動に関する確率的情報とを組み込んだ公平なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-30T15:22:28Z) - FaiREE: Fair Classification with Finite-Sample and Distribution-Free
Guarantee [40.10641140860374]
FaiREE は群フェアネス制約を有限サンプルと分布自由な理論保証で満たす公平な分類アルゴリズムである。
FaiREEは最先端のアルゴリズムよりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-11-28T05:16:20Z) - Disentangled Representation with Causal Constraints for Counterfactual
Fairness [25.114619307838602]
この研究は、構造化された表現を使用することで、下流の予測モデルが反現実的公正を達成することを理論的に証明している。
本稿では,ドメイン知識に関する構造化表現を得るために,CF-VAE(Counterfactal Fairness Variational AutoEncoder)を提案する。
実験結果から,提案手法はベンチマークフェアネス法よりも高精度で精度が高いことがわかった。
論文 参考訳(メタデータ) (2022-08-19T04:47:58Z) - Fair Representation: Guaranteeing Approximate Multiple Group Fairness
for Unknown Tasks [17.231251035416648]
本研究では,未知のタスクに対して公平性を保証し,複数のフェアネス概念を同時に活用できるかどうかを考察する。
公平な表現は全ての予測タスクに対して公平性を保証するわけではないが、重要なタスクのサブセットに対して公平性を保証する。
論文 参考訳(メタデータ) (2021-09-01T17:29:11Z) - Fair Normalizing Flows [10.484851004093919]
FNF(Fair Normalizing Flows)は、学習された表現に対してより厳密な公正性を保証する新しい手法である。
FNFの主な利点は、その正確な確率計算により、潜在的に逆下流予測器の最大不公平性の保証が得られることである。
我々は,FNFが様々なグループフェアネスの概念を強制する上での有効性を実験的に示すとともに,解釈可能性や伝達学習といった他の魅力的な特性も示す。
論文 参考訳(メタデータ) (2021-06-10T17:35:59Z) - Fair Densities via Boosting the Sufficient Statistics of Exponential
Families [72.34223801798422]
フェアネスのためのデータ前処理にブースティングアルゴリズムを導入する。
私たちのアプローチは、最小限の公平性を確保しながら、より良いデータフィッティングへとシフトします。
実世界のデータに結果の質を示す実験結果が提示される。
論文 参考訳(メタデータ) (2020-12-01T00:49:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。