論文の概要: FairPFN: Transformers Can do Counterfactual Fairness
- arxiv url: http://arxiv.org/abs/2407.05732v1
- Date: Mon, 8 Jul 2024 08:36:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-09 16:30:32.503092
- Title: FairPFN: Transformers Can do Counterfactual Fairness
- Title(参考訳): FairPFN: トランスフォーマーは非現実的フェアネスを実現できる
- Authors: Jake Robertson, Noah Hollmann, Noor Awad, Frank Hutter,
- Abstract要約: 因果的および反事実的公正性は、法的な基準と密接に一致した公正性を定義する直感的な方法を提供する。
本研究は、FairPFNと呼ばれる変圧器を学習するために、文脈学習(ICL)および事前適応ネットワーク(PFN)における最近の研究に基づいている。
このモデルは、観測データから直接保護属性の因果効果を除去するために、合成公正データを用いて事前訓練される。
- 参考スコア(独自算出の注目度): 41.052676173417574
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine Learning systems are increasingly prevalent across healthcare, law enforcement, and finance but often operate on historical data, which may carry biases against certain demographic groups. Causal and counterfactual fairness provides an intuitive way to define fairness that closely aligns with legal standards. Despite its theoretical benefits, counterfactual fairness comes with several practical limitations, largely related to the reliance on domain knowledge and approximate causal discovery techniques in constructing a causal model. In this study, we take a fresh perspective on counterfactually fair prediction, building upon recent work in in context learning (ICL) and prior fitted networks (PFNs) to learn a transformer called FairPFN. This model is pretrained using synthetic fairness data to eliminate the causal effects of protected attributes directly from observational data, removing the requirement of access to the correct causal model in practice. In our experiments, we thoroughly assess the effectiveness of FairPFN in eliminating the causal impact of protected attributes on a series of synthetic case studies and real world datasets. Our findings pave the way for a new and promising research area: transformers for causal and counterfactual fairness.
- Abstract(参考訳): 機械学習システムは、医療、法執行、財務においてますます普及しているが、歴史的データを扱うことが多く、特定の人口集団に対する偏見をもたらす可能性がある。
因果的および反事実的公正性は、法的な基準と密接に一致した公正性を定義する直感的な方法を提供する。
その理論的利点にもかかわらず、反事実的公正性にはいくつかの実践的な制限が伴い、主にドメイン知識への依存と因果モデルの構築における近似因果発見技術に関係している。
本研究では,文脈学習(ICL)と事前適応ネットワーク(PFN)の最近の研究に基づいて,FairPFNと呼ばれる変圧器の学習を行う。
本モデルは, 観測データから直接保護属性の因果効果を排除し, 実際に適切な因果モデルにアクセスする必要をなくすために, 合成公正データを用いて事前訓練を行う。
本実験では,保護属性の因果的影響を除去するFairPFNの有効性を,一連のケーススタディと実世界のデータセットで徹底的に評価した。
我々の研究は、因果フェアネスと反事実フェアネスのためのトランスフォーマーという、新しくて有望な研究分野への道を開いた。
関連論文リスト
- Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - AIM: Attributing, Interpreting, Mitigating Data Unfairness [40.351282126410545]
既存の公正機械学習(FairML)の研究は、モデル予測における差別バイアスの軽減に重点を置いている。
トレーニングデータからバイアスや偏見を反映したサンプルの発見という,新たな研究課題について検討する。
サンプルバイアスの測定と対策のための実用的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-13T05:21:10Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - DECAF: Generating Fair Synthetic Data Using Causally-Aware Generative
Networks [71.6879432974126]
本稿では,GANに基づく表型データのための公正な合成データ生成装置であるDECAFを紹介する。
DeCAFは望ましくないバイアスを除去し,高品質な合成データを生成可能であることを示す。
下流モデルの収束と公平性に関する理論的保証を提供する。
論文 参考訳(メタデータ) (2021-10-25T12:39:56Z) - Fair Normalizing Flows [10.484851004093919]
FNF(Fair Normalizing Flows)は、学習された表現に対してより厳密な公正性を保証する新しい手法である。
FNFの主な利点は、その正確な確率計算により、潜在的に逆下流予測器の最大不公平性の保証が得られることである。
我々は,FNFが様々なグループフェアネスの概念を強制する上での有効性を実験的に示すとともに,解釈可能性や伝達学習といった他の魅力的な特性も示す。
論文 参考訳(メタデータ) (2021-06-10T17:35:59Z) - FAIR: Fair Adversarial Instance Re-weighting [0.7829352305480285]
本研究では,公正な予測を確実にするインスタンス重み付け関数の学習に敵対的トレーニングを利用するFair Adrial Instance Re-weighting(FAIR)手法を提案する。
我々の知る限りでは、これは、個々のインスタンスの公平性に関する解釈可能な情報を提供する重み付け関数によって、再重み付けと逆方向のアプローチをマージする最初のモデルである。
論文 参考訳(メタデータ) (2020-11-15T10:48:56Z) - Improving Fair Predictions Using Variational Inference In Causal Models [8.557308138001712]
アルゴリズム的公正の重要性は、機械学習が人々の生活に与える影響の増加とともに増大する。
フェアネス指標に関する最近の研究は、フェアネス制約における因果推論の必要性を示している。
本研究は、我々の倫理的・法的境界を尊重する機械学習技術に貢献することを目的としている。
論文 参考訳(メタデータ) (2020-08-25T08:27:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。