論文の概要: Fair Representation Learning with Controllable High Confidence Guarantees via Adversarial Inference
- arxiv url: http://arxiv.org/abs/2510.21017v1
- Date: Thu, 23 Oct 2025 21:50:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 06:57:23.359787
- Title: Fair Representation Learning with Controllable High Confidence Guarantees via Adversarial Inference
- Title(参考訳): 逆推論による制御可能な高信頼度保証を用いた公正表現学習
- Authors: Yuhong Luo, Austin Hoag, Xintong Wang, Philip S. Thomas, Przemyslaw A. Grabowicz,
- Abstract要約: 本稿では,高信頼の公平性を実現するための表現学習の課題について紹介する。
本稿では,**F*air **R**epresentation learning with high-confidence **G**uarantees (FRG)* frameworkを提案する。
実世界の3つのデータセット上でFRGを実証的に評価し、その性能を6つの最先端の公正表現学習手法と比較した。
- 参考スコア(独自算出の注目度): 8.854453724138109
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Representation learning is increasingly applied to generate representations that generalize well across multiple downstream tasks. Ensuring fairness guarantees in representation learning is crucial to prevent unfairness toward specific demographic groups in downstream tasks. In this work, we formally introduce the task of learning representations that achieve high-confidence fairness. We aim to guarantee that demographic disparity in every downstream prediction remains bounded by a *user-defined* error threshold $\epsilon$, with *controllable* high probability. To this end, we propose the ***F**air **R**epresentation learning with high-confidence **G**uarantees (FRG)* framework, which provides these high-confidence fairness guarantees by leveraging an optimized adversarial model. We empirically evaluate FRG on three real-world datasets, comparing its performance to six state-of-the-art fair representation learning methods. Our results demonstrate that FRG consistently bounds unfairness across a range of downstream models and tasks.
- Abstract(参考訳): 表現学習は、複数の下流タスクにまたがってうまく一般化される表現を生成するために、ますます応用される。
表現学習における公平性の保証は、下流タスクにおける特定の人口集団に対する不公平さを防ぐために不可欠である。
本研究では,高信頼の公平性を実現するための表現の学習課題を正式に紹介する。
下流の予測における人口格差は、*制御可能な*高い確率で*user-defined*エラー閾値$\epsilon$で制限されることを保証することを目指している。
この目的のために,高信頼**G**Aurrantees(FRG)*フレームワークを用いた***F*air **R**表現学習を提案する。
実世界の3つのデータセット上でFRGを実証的に評価し、その性能を6つの最先端の公正表現学習手法と比較した。
以上の結果から,FRGは下流モデルやタスクに不公平さを連続的に拘束することを示した。
関連論文リスト
- Reliable and Reproducible Demographic Inference for Fairness in Face Analysis [63.46525489354455]
本稿では、従来のエンドツーエンドトレーニングをモジュラートランスファー学習アプローチで置き換える、完全に再現可能なDAIパイプラインを提案する。
このパイプラインは、正確性、公正性、そしてアイデンティティ内整合性によって定義される、新たに導入された堅牢性の概念の3つの次元にわたって監査する。
以上の結果から,提案手法は特に民族性において,強い基準線を上回り,その特性はより困難であることが示唆された。
論文 参考訳(メタデータ) (2025-10-23T12:22:02Z) - Fair Sufficient Representation Learning [2.308168896770315]
本稿では,効率と公平性のバランスをとるフェア・サフィシエント・表現学習(FSRL)手法を提案する。
FSRLは、十分な表現を学習する目的関数と、公平性を保証する目的関数の凸結合に基づいている。
提案手法は,表現レベルでの公平性と満足度を管理し,公正表現学習の新たな視点を提供する。
論文 参考訳(メタデータ) (2025-03-29T10:37:49Z) - Targeted Learning for Data Fairness [52.59573714151884]
データ生成プロセス自体の公平性を評価することにより、公平性推論を拡張する。
我々は、人口統計学的平等、平等機会、条件付き相互情報から推定する。
提案手法を検証するため,いくつかのシミュレーションを行い,実データに適用する。
論文 参考訳(メタデータ) (2025-02-06T18:51:28Z) - FairDgcl: Fairness-aware Recommendation with Dynamic Graph Contrastive Learning [48.38344934125999]
提案手法は,高品質なデータ拡張を実現し,コメンデーションフェアネスを改善する方法である。
具体的には,動的グラフ対逆学習フレームワークであるFairDgclを提案する。
FairDgclは、公正さと精度の両方を持つ拡張表現を同時に生成できることを示す。
論文 参考訳(メタデータ) (2024-10-23T04:43:03Z) - Learning Fairer Representations with FairVIC [1.4018975578160686]
自動意思決定システムにおけるバイアスの緩和は、公平さとデータセット固有のバイアスのニュアンスな定義のために重要な課題である。
学習中の損失関数に分散項、不変項、共分散項を統合することにより、ニューラルネットワークの公平性を高める革新的なアプローチであるFairVICを導入する。
ベンチマークデータセットにおけるFairVICを,グループと個人の両方の公正性を考慮して比較して評価し,精度と公正性のトレードオフに関するアブレーション研究を行う。
論文 参考訳(メタデータ) (2024-04-28T10:10:21Z) - Learning Fair Representations with High-Confidence Guarantees [17.998584978924697]
本稿では,Fair Representation Learning with High-confidence Guarantees (FRG) frameworkを紹介する。
FRGは、すべての下流モデルとタスクにおける不公平性を制限するために、高信頼の保証を提供する。
複数の下流モデルやタスクに対して, FRG が上界不公平であることを示す。
論文 参考訳(メタデータ) (2023-10-23T20:43:03Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - Fair Normalizing Flows [10.484851004093919]
FNF(Fair Normalizing Flows)は、学習された表現に対してより厳密な公正性を保証する新しい手法である。
FNFの主な利点は、その正確な確率計算により、潜在的に逆下流予測器の最大不公平性の保証が得られることである。
我々は,FNFが様々なグループフェアネスの概念を強制する上での有効性を実験的に示すとともに,解釈可能性や伝達学習といった他の魅力的な特性も示す。
論文 参考訳(メタデータ) (2021-06-10T17:35:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。