論文の概要: A pipeline for enabling path-specific causal fairness in observational health data
- arxiv url: http://arxiv.org/abs/2601.09841v2
- Date: Sat, 17 Jan 2026 02:01:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 14:05:45.104804
- Title: A pipeline for enabling path-specific causal fairness in observational health data
- Title(参考訳): 観察健康データにおける経路特異的因果フェアネスを実現するパイプライン
- Authors: Aparajita Kashyap, Sara Matijevic, Noémie Elhadad, Steven A. Kushner, Shalmali Joshi,
- Abstract要約: 我々は、経路特異的因果フェアネスに焦点を当て、バイアスが発生する社会的・医療的文脈をよりよく検討する。
構造フェアネスモデルを観察医療環境にマッピングし、因果フェアモデルをトレーニングするための一般化可能なパイプラインを作成する。
この研究は、直接的および間接的な医療バイアスに対処する因果公正機械学習モデルをトレーニングするためのモデルに依存しないパイプラインを提供する。
- 参考スコア(独自算出の注目度): 7.0667671771548335
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: When training machine learning (ML) models for potential deployment in a healthcare setting, it is essential to ensure that they do not replicate or exacerbate existing healthcare biases. Although many definitions of fairness exist, we focus on path-specific causal fairness, which allows us to better consider the social and medical contexts in which biases occur (e.g., direct discrimination by a clinician or model versus bias due to differential access to the healthcare system) and to characterize how these biases may appear in learned models. In this work, we map the structural fairness model to the observational healthcare setting and create a generalizable pipeline for training causally fair models. The pipeline explicitly considers specific healthcare context and disparities to define a target "fair" model. Our work fills two major gaps: first, we expand on characterizations of the "fairness-accuracy" tradeoff by detangling direct and indirect sources of bias and jointly presenting these fairness considerations alongside considerations of accuracy in the context of broadly known biases. Second, we demonstrate how a foundation model trained without fairness constraints on observational health data can be leveraged to generate causally fair downstream predictions in tasks with known social and medical disparities. This work presents a model-agnostic pipeline for training causally fair machine learning models that address both direct and indirect forms of healthcare bias.
- Abstract(参考訳): マシンラーニング(ML)モデルをトレーニングして、医療環境でのデプロイを可能とする場合、既存の医療バイアスを再現したり、悪化させたりしないようにすることが不可欠です。
公平性には多くの定義があるが、パス固有の因果フェアネスに焦点を当てており、バイアスが発生する社会的・医学的文脈(例えば、臨床医やモデルによる直接的な差別、医療システムへの差分アクセスによるバイアス)をよりよく検討し、これらのバイアスがどのように学習モデルに現れるのかを特徴付けることができる。
本研究では、構造フェアネスモデルを観察医療環境にマッピングし、因果フェアモデルをトレーニングするための一般化可能なパイプラインを作成する。
パイプラインは、ターゲットの“フェア”モデルを定義するために、特定の医療コンテキストと格差を明示的に考慮する。
まず、直接的および間接的なバイアス源を識別し、広く知られているバイアスの文脈における精度の考慮とともに、これらの公平性に関する考察を共同で提示することで、「公正-正確」トレードオフの特性を拡大する。
第2に, 健康データに対する公正な制約を伴わずにトレーニングした基礎モデルを, 社会的・医療的な相違のあるタスクにおいて, 因果的に公平な下流予測を生成するために活用する方法を実証する。
この研究は、直接的および間接的な医療バイアスに対処する因果公正機械学習モデルをトレーニングするためのモデルに依存しないパイプラインを提供する。
関連論文リスト
- Bridging Fairness and Explainability: Can Input-Based Explanations Promote Fairness in Hate Speech Detection? [22.18673021255833]
本研究では,ヘイトスピーチ検出における説明可能性と公平性の関係について,最初の系統的研究を行った。
バイアス付き予測の同定,(2)公正モデルの選択,(3)モデルトレーニング時のバイアス軽減の3つの重要な側面について検討する。
入力に基づく説明は, 偏りのある予測を効果的に検出できるが, 候補の中から公平なモデルを選択するには信頼性が低い。
論文 参考訳(メタデータ) (2025-09-26T12:53:20Z) - Debias-CLR: A Contrastive Learning Based Debiasing Method for Algorithmic Fairness in Healthcare Applications [0.17624347338410748]
異なる治療と戦うために,暗黙の処理内脱バイアス法を提案した。
心不全患者の臨床記録と診断基準,治療報告,生理的活力について検討した。
Debias-CLRは、性別や民族を嫌う場合に、SC-WEAT(Single-Category Word Embedding Association Test)の効果を減少させることができた。
論文 参考訳(メタデータ) (2024-11-15T19:32:01Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Connecting Fairness in Machine Learning with Public Health Equity [0.0]
データとモデル設計のバイアスは、特定の保護されたグループの格差をもたらし、医療における既存の不平等を増幅します。
本研究は,MLフェアネスに関する基礎文献を要約し,データとモデルのバイアスを特定し緩和するための枠組みを提案する。
ケーススタディは、このフレームワークがこれらのバイアスを防ぎ、公衆衛生における公平で公平なMLモデルの必要性を強調するためにどのように使用できるかを示している。
論文 参考訳(メタデータ) (2023-04-08T10:21:49Z) - On Comparing Fair Classifiers under Data Bias [42.43344286660331]
本研究では,データ偏差の変化が公正分類器の精度と公平性に及ぼす影響について検討する。
我々の実験は、既存のフェアネスダッシュボードにデータバイアスリスクの尺度を統合する方法を示している。
論文 参考訳(メタデータ) (2023-02-12T13:04:46Z) - Fairness and robustness in anti-causal prediction [73.693135253335]
分散シフトと公平性に対するロバストさは、機械学習モデルに必要な2つの重要なデシラタとして独立に現れている。
これら2つのデシダラタは関連しているように見えるが、実際にはその関連性はしばしば不明である。
この観点から見れば、共通フェアネス基準(分離)とロバストネスの共通概念との明確な関係を描いています。
論文 参考訳(メタデータ) (2022-09-20T02:41:17Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Bias-inducing geometries: an exactly solvable data model with fairness implications [12.532003449620607]
我々は、正確に解決可能なデータ不均衡の高次元モデルを導入する。
この合成フレームワークで訓練された学習モデルの典型的特性を解析的に解き放つ。
フェアネス評価によく用いられる観測対象の正確な予測値を得る。
論文 参考訳(メタデータ) (2022-05-31T16:27:57Z) - Diagnosing failures of fairness transfer across distribution shift in
real-world medical settings [60.44405686433434]
分散シフト下でのモデルフェアネスの変化の診断と緩和は、医療環境における機械学習の安全な展開の重要な構成要素である。
この知識は、文献でしばしば想定されるよりも現実のシフトがより複雑である事例を含む、公平性伝達の失敗の診断に有効であることを示す。
論文 参考訳(メタデータ) (2022-02-02T13:59:23Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。