論文の概要: FairPFN: A Tabular Foundation Model for Causal Fairness
- arxiv url: http://arxiv.org/abs/2506.07049v1
- Date: Sun, 08 Jun 2025 09:15:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.650356
- Title: FairPFN: A Tabular Foundation Model for Causal Fairness
- Title(参考訳): FairPFN: 因果フェアネスのためのタブラル基礎モデル
- Authors: Jake Robertson, Noah Hollmann, Samuel Müller, Noor Awad, Frank Hutter,
- Abstract要約: 因果公正(Causal fairness)は、アルゴリズムの差別を緩和する透明性のある、ループ内の人間的フレームワークを提供する。
本研究では,合成因果フェアネスデータに基づいて事前学習したモデルであるFairPFNを提案し,その予測における保護属性の因果効果の同定と緩和を行う。
- 参考スコア(独自算出の注目度): 39.83807136585407
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning (ML) systems are utilized in critical sectors, such as healthcare, law enforcement, and finance. However, these systems are often trained on historical data that contains demographic biases, leading to ML decisions that perpetuate or exacerbate existing social inequalities. Causal fairness provides a transparent, human-in-the-loop framework to mitigate algorithmic discrimination, aligning closely with legal doctrines of direct and indirect discrimination. However, current causal fairness frameworks hold a key limitation in that they assume prior knowledge of the correct causal model, restricting their applicability in complex fairness scenarios where causal models are unknown or difficult to identify. To bridge this gap, we propose FairPFN, a tabular foundation model pre-trained on synthetic causal fairness data to identify and mitigate the causal effects of protected attributes in its predictions. FairPFN's key contribution is that it requires no knowledge of the causal model and still demonstrates strong performance in identifying and removing protected causal effects across a diverse set of hand-crafted and real-world scenarios relative to robust baseline methods. FairPFN paves the way for promising future research, making causal fairness more accessible to a wider variety of complex fairness problems.
- Abstract(参考訳): 機械学習(ML)システムは医療、法執行、金融といった重要な分野で利用されている。
しかしながら、これらのシステムは、しばしば人口統計バイアスを含む歴史的データに基づいて訓練され、既存の社会的不平等を永続または悪化させるML決定につながる。
因果フェアネス(Causal Fairness)は、アルゴリズム的差別を緩和し、直接的および間接的差別の法的ドクトリンと密接に整合する、透明性のある、ループ内の人間的枠組みを提供する。
しかし、現在の因果フェアネスフレームワークは、正しい因果モデルの事前の知識を前提として、因果モデルが未知あるいは特定が難しい複雑な因果モデルシナリオに適用性を制限するという点において、重要な制限を持っている。
このギャップを埋めるために,合成因果フェアネスデータに基づいて事前訓練した表層基礎モデルであるFairPFNを提案し,その予測において保護属性の因果効果を特定し緩和する。
FairPFNの重要な貢献は、因果モデルに関する知識を必要とせず、堅牢なベースライン手法と比較して、手作りおよび実世界の様々なシナリオにおいて、保護された因果効果を特定し、取り除く上で、依然として強力な性能を示すことである。
FairPFNは将来の有望な研究の道を切り開いており、より幅広い複雑な公正問題に因果フェアネスをよりアクセスしやすくしている。
関連論文リスト
- FairPFN: Transformers Can do Counterfactual Fairness [41.052676173417574]
因果的および反事実的公正性は、法的な基準と密接に一致した公正性を定義する直感的な方法を提供する。
本研究は、FairPFNと呼ばれる変圧器を学習するために、文脈学習(ICL)および事前適応ネットワーク(PFN)における最近の研究に基づいている。
このモデルは、観測データから直接保護属性の因果効果を除去するために、合成公正データを用いて事前訓練される。
論文 参考訳(メタデータ) (2024-07-08T08:36:44Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - On the Societal Impact of Open Foundation Models [93.67389739906561]
ここでは、広く利用可能なモデルウェイトを持つものとして定義されている、オープンファンデーションモデルに重点を置いています。
オープンファンデーションモデルの5つの特徴を識別し,その利点とリスクを両立させる。
論文 参考訳(メタデータ) (2024-02-27T16:49:53Z) - Fairness Explainability using Optimal Transport with Applications in
Image Classification [0.46040036610482665]
機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
論文 参考訳(メタデータ) (2023-08-22T00:10:23Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Survey on Causal-based Machine Learning Fairness Notions [4.157415305926584]
本稿では,因果関係に基づくフェアネス概念の包括的リストについて検討し,実世界のシナリオにおける適用性について検討する。
因果関係に基づく公平性の概念の大部分は、観測不可能な量という観点で定義されるため、実際にはそれらの量を計算するか、見積もる必要がある。
論文 参考訳(メタデータ) (2020-10-19T14:28:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。