論文の概要: FairGRPO: Fair Reinforcement Learning for Equitable Clinical Reasoning
- arxiv url: http://arxiv.org/abs/2510.19893v1
- Date: Wed, 22 Oct 2025 17:26:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:16.528062
- Title: FairGRPO: Fair Reinforcement Learning for Equitable Clinical Reasoning
- Title(参考訳): FairGRPO: 公平な臨床推論のための公正な強化学習
- Authors: Shiqi Dai, Wei Dai, Jiaee Cheong, Paul Pu Liang,
- Abstract要約: FairGRPO(Fairness-Aware Group Relative Policy Optimization)は、異種臨床集団における公平な学習を促進する階層的強化学習手法である。
また,FairGRPOは全バニラに対する予測パリティを27.2%削減し,RLベースラインを緩和し,F1スコアを12.49%改善することを示した。
FairGRPOをベースとしたFairMedGemma-4Bは,最先端の性能を実現するとともに,人口集団間の格差を著しく低減した臨床VLLMである。
- 参考スコア(独自算出の注目度): 29.271963682064044
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Medical artificial intelligence systems have achieved remarkable diagnostic capabilities, yet they consistently exhibit performance disparities across demographic groups, causing real-world harm to underrepresented populations. While recent multimodal reasoning foundation models have advanced clinical diagnosis through integrated analysis of diverse medical data, reasoning trainings via reinforcement learning inherit and often amplify biases present in training datasets dominated by majority populations. We introduce Fairness-aware Group Relative Policy Optimization (FairGRPO), a hierarchical reinforcement learning approach that promotes equitable learning across heterogeneous clinical populations. FairGRPO employs adaptive importance weighting of advantages based on representation, task difficulty, and data source. To address the common issue of missing demographic labels in the clinical domain, we further employ unsupervised clustering, which automatically discovers latent demographic groups when labels are unavailable. Through comprehensive experiments across 7 clinical diagnostic datasets spanning 5 clinical modalities across X-ray, CT scan, dermoscropy, mammography and ultrasound, we demonstrate that FairGRPO reduces predictive parity by 27.2% against all vanilla and bias mitigated RL baselines, while improving F1 score by 12.49%. Furthermore, training dynamics analysis reveals that FairGRPO progressively improves fairness throughout optimization, while baseline RL methods exhibit deteriorating fairness as training progresses. Based on FairGRPO, we release FairMedGemma-4B, a fairness-aware clinical VLLM that achieves state-of-the-art performance while demonstrating significantly reduced disparities across demographic groups.
- Abstract(参考訳): 医療人工知能システムは目覚ましい診断能力を達成したが、人口集団間でパフォーマンスの相違を一貫して示しており、現実世界の被害は人口の過小評価を招いている。
近年のマルチモーダル推論基盤モデルでは,多様な医療データの統合分析による臨床診断が進んでいるが,強化学習による推論訓練は,多数派が支配する訓練データセットに存在するバイアスを増大させることが多い。
FairGRPO(Fairness-Aware Group Relative Policy Optimization)は、異種臨床集団における公平な学習を促進する階層的強化学習手法である。
FairGRPOは、表現、タスクの難しさ、データソースに基づく利点の適応的な重み付けを採用している。
臨床領域における欠落した人口統計学的ラベルの共通問題に対処するために、さらに教師なしクラスタリングを採用し、ラベルが利用できないときに潜在人口統計学的グループを自動的に発見する。
X線、CTスキャン、デルモスクロピー、マンモグラフィー、超音波の5つの臨床指標にまたがる総合的な実験を通して、FairGRPOが予測パリティを27.2%減少させ、全てのバニラとバイアスを緩和するRLベースラインを緩和し、F1スコアを12.49%改善することを示した。
さらに、トレーニングダイナミクス解析により、FairGRPOは最適化全体の公正性を徐々に改善し、ベースラインRL法はトレーニングの進行とともに公正性を劣化させることを示した。
FairGRPOをベースとしたFairMedGemma-4Bは,最先端の性能を実現するとともに,人口集団間の格差を著しく低減した臨床VLLMである。
関連論文リスト
- Investigating the Impact of Histopathological Foundation Models on Regressive Prediction of Homologous Recombination Deficiency [52.50039435394964]
回帰に基づくタスクの基礎モデルを体系的に評価する。
我々は5つの最先端基礎モデルを用いて、スライド画像全体(WSI)からパッチレベルの特徴を抽出する。
乳房、子宮内膜、肺がんコホートにまたがるこれらの抽出された特徴に基づいて、連続したRDDスコアを予測するモデルが訓練されている。
論文 参考訳(メタデータ) (2026-01-29T14:06:50Z) - Developing Fairness-Aware Task Decomposition to Improve Equity in Post-Spinal Fusion Complication Prediction [3.860970992977915]
術後合併症予測のための公平性を考慮したマルチタスク学習フレームワークを提案する。
FAIR-MTLはデータ駆動型サブグループ推論機構を採用している。
AUCは0.86であり、75%の精度でシングルタスクベースラインを上回り、バイアスを大幅に低減する。
論文 参考訳(メタデータ) (2025-11-29T19:06:07Z) - FAST-CAD: A Fairness-Aware Framework for Non-Contact Stroke Diagnosis [8.939811267715228]
本稿では,FAST-CADを提案する。FAST-CADは,ドメイン・アドバイザリ・トレーニングと群分布的ロバストな最適化を組み合わせた理論的基盤を持つフレームワークである。
我々のアプローチは、領域適応とミニマックスフェアネス理論に基づいており、収束境界の保証とフェアネスを提供する。
実験により, 人口集団間の公平性を保ちながら, 診断性能が良好であることが確認された。
論文 参考訳(メタデータ) (2025-11-12T01:40:58Z) - Achieving Fairness Without Harm via Selective Demographic Experts [16.212815178841087]
バイアス緩和技術は、公平性と正確性の間にトレードオフを課すことが多い。
臨床診断のような高い領域では、そのようなトレードオフは倫理的にも現実的にも受け入れられない。
我々は、異なる人口集団の異なる表現を学習し、公平で無害なアプローチを提案する。
論文 参考訳(メタデータ) (2025-11-09T09:11:02Z) - Bias and Generalizability of Foundation Models across Datasets in Breast Mammography [4.117899774444893]
乳房マンモグラフィー分類のための基礎モデル(FM)の公平性とバイアスについて検討する。
我々は、未表現領域と社内データセットからのさまざまなソースを含む、膨大なデータセットのプールを活用している。
実験の結果,FMのモーダリティ固有の事前学習は性能を向上させるが,個々のデータセットの特徴に基づいて訓練された分類器はドメイン間の一般化に失敗することがわかった。
論文 参考訳(メタデータ) (2025-05-14T06:56:17Z) - Mitigating Group-Level Fairness Disparities in Federated Visual Language Models [115.16940773660104]
本稿では、FLと公正なプロンプトチューニング技術を組み合わせた新しいフレームワークであるFVL-FPを紹介する。
モデル性能を維持しながら、人口統計バイアスを軽減することに注力する。
本手法は,標準FL法に比べて平均45%の人口格差を減少させる。
論文 参考訳(メタデータ) (2025-05-03T16:09:52Z) - FairREAD: Re-fusing Demographic Attributes after Disentanglement for Fair Medical Image Classification [3.615240611746158]
FairREAD (Fair Refusion After Disentanglement) は, センシティブな階層属性を公正な画像表現に再統合することで不公平を緩和するフレームワークである。
FairREADは、臨床に関係のある詳細を保存するために、制御された再灌流機構を使用しながら、人口統計情報をアンタングルする敵の訓練を採用している。
大規模臨床X線データセットの総合的評価は、FairREADが診断精度を維持しながら不公平度指標を著しく低減することを示した。
論文 参考訳(メタデータ) (2024-12-20T22:17:57Z) - Cross-Care: Assessing the Healthcare Implications of Pre-training Data on Language Model Bias [3.455189439319919]
大規模な言語モデル(LLM)におけるバイアスと実世界の知識を評価するための最初のベンチマークフレームワークであるCross-Careを紹介する。
ThePile$のような事前学習コーパスに埋め込まれた人口統計バイアスがLLMの出力にどのように影響するかを評価する。
以上の結果から, LLMの病状有病率と, 集団間での実際の病状有病率との相違が明らかとなった。
論文 参考訳(メタデータ) (2024-05-09T02:33:14Z) - Fairness Evolution in Continual Learning for Medical Imaging [47.52603262576663]
本研究では、ドメイン固有の公平度指標を用いてタスク間でバイアスがどのように進化し、異なるCL戦略がこの進化にどのように影響するかを検討する。
以上の結果から,擬似ラベルと擬似ラベルの学習は最適分類性能を実現するが,擬似ラベルの偏りは小さいことが示唆された。
論文 参考訳(メタデータ) (2024-04-10T09:48:52Z) - How does promoting the minority fraction affect generalization? A theoretical study of the one-hidden-layer neural network on group imbalance [64.1656365676171]
グループ不均衡は経験的リスク最小化において既知の問題である。
本稿では,個々の集団がサンプルの複雑さ,収束率,平均および群レベルの試験性能に与える影響を定量化する。
論文 参考訳(メタデータ) (2024-03-12T04:38:05Z) - Evaluating the Fairness of the MIMIC-IV Dataset and a Baseline
Algorithm: Application to the ICU Length of Stay Prediction [65.268245109828]
本稿では、MIMIC-IVデータセットを用いて、滞在時間を予測するXGBoostバイナリ分類モデルにおける公平性とバイアスについて検討する。
この研究は、人口統計属性にわたるデータセットのクラス不均衡を明らかにし、データ前処理と特徴抽出を採用する。
この論文は、偏見を緩和するための公正な機械学習技術と、医療専門家とデータサイエンティストの協力的な努力の必要性について結論付けている。
論文 参考訳(メタデータ) (2023-12-31T16:01:48Z) - Generative models improve fairness of medical classifiers under
distribution shifts [49.10233060774818]
データから現実的な拡張を自動的に学習することは、生成モデルを用いてラベル効率の良い方法で可能であることを示す。
これらの学習の強化は、モデルをより堅牢で統計的に公平に配布できることを示した。
論文 参考訳(メタデータ) (2023-04-18T18:15:38Z) - Bootstrapping Your Own Positive Sample: Contrastive Learning With
Electronic Health Record Data [62.29031007761901]
本稿では,新しいコントラスト型正規化臨床分類モデルを提案する。
EHRデータに特化した2つのユニークなポジティブサンプリング戦略を紹介します。
私たちのフレームワークは、現実世界のCOVID-19 EHRデータの死亡リスクを予測するために、競争の激しい実験結果をもたらします。
論文 参考訳(メタデータ) (2021-04-07T06:02:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。