論文の概要: FairGRPO: Fair Reinforcement Learning for Equitable Clinical Reasoning
- arxiv url: http://arxiv.org/abs/2510.19893v1
- Date: Wed, 22 Oct 2025 17:26:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:16.528062
- Title: FairGRPO: Fair Reinforcement Learning for Equitable Clinical Reasoning
- Title(参考訳): FairGRPO: 公平な臨床推論のための公正な強化学習
- Authors: Shiqi Dai, Wei Dai, Jiaee Cheong, Paul Pu Liang,
- Abstract要約: FairGRPO(Fairness-Aware Group Relative Policy Optimization)は、異種臨床集団における公平な学習を促進する階層的強化学習手法である。
また,FairGRPOは全バニラに対する予測パリティを27.2%削減し,RLベースラインを緩和し,F1スコアを12.49%改善することを示した。
FairGRPOをベースとしたFairMedGemma-4Bは,最先端の性能を実現するとともに,人口集団間の格差を著しく低減した臨床VLLMである。
- 参考スコア(独自算出の注目度): 29.271963682064044
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Medical artificial intelligence systems have achieved remarkable diagnostic capabilities, yet they consistently exhibit performance disparities across demographic groups, causing real-world harm to underrepresented populations. While recent multimodal reasoning foundation models have advanced clinical diagnosis through integrated analysis of diverse medical data, reasoning trainings via reinforcement learning inherit and often amplify biases present in training datasets dominated by majority populations. We introduce Fairness-aware Group Relative Policy Optimization (FairGRPO), a hierarchical reinforcement learning approach that promotes equitable learning across heterogeneous clinical populations. FairGRPO employs adaptive importance weighting of advantages based on representation, task difficulty, and data source. To address the common issue of missing demographic labels in the clinical domain, we further employ unsupervised clustering, which automatically discovers latent demographic groups when labels are unavailable. Through comprehensive experiments across 7 clinical diagnostic datasets spanning 5 clinical modalities across X-ray, CT scan, dermoscropy, mammography and ultrasound, we demonstrate that FairGRPO reduces predictive parity by 27.2% against all vanilla and bias mitigated RL baselines, while improving F1 score by 12.49%. Furthermore, training dynamics analysis reveals that FairGRPO progressively improves fairness throughout optimization, while baseline RL methods exhibit deteriorating fairness as training progresses. Based on FairGRPO, we release FairMedGemma-4B, a fairness-aware clinical VLLM that achieves state-of-the-art performance while demonstrating significantly reduced disparities across demographic groups.
- Abstract(参考訳): 医療人工知能システムは目覚ましい診断能力を達成したが、人口集団間でパフォーマンスの相違を一貫して示しており、現実世界の被害は人口の過小評価を招いている。
近年のマルチモーダル推論基盤モデルでは,多様な医療データの統合分析による臨床診断が進んでいるが,強化学習による推論訓練は,多数派が支配する訓練データセットに存在するバイアスを増大させることが多い。
FairGRPO(Fairness-Aware Group Relative Policy Optimization)は、異種臨床集団における公平な学習を促進する階層的強化学習手法である。
FairGRPOは、表現、タスクの難しさ、データソースに基づく利点の適応的な重み付けを採用している。
臨床領域における欠落した人口統計学的ラベルの共通問題に対処するために、さらに教師なしクラスタリングを採用し、ラベルが利用できないときに潜在人口統計学的グループを自動的に発見する。
X線、CTスキャン、デルモスクロピー、マンモグラフィー、超音波の5つの臨床指標にまたがる総合的な実験を通して、FairGRPOが予測パリティを27.2%減少させ、全てのバニラとバイアスを緩和するRLベースラインを緩和し、F1スコアを12.49%改善することを示した。
さらに、トレーニングダイナミクス解析により、FairGRPOは最適化全体の公正性を徐々に改善し、ベースラインRL法はトレーニングの進行とともに公正性を劣化させることを示した。
FairGRPOをベースとしたFairMedGemma-4Bは,最先端の性能を実現するとともに,人口集団間の格差を著しく低減した臨床VLLMである。
関連論文リスト
- Bias and Generalizability of Foundation Models across Datasets in Breast Mammography [4.117899774444893]
乳房マンモグラフィー分類のための基礎モデル(FM)の公平性とバイアスについて検討する。
我々は、未表現領域と社内データセットからのさまざまなソースを含む、膨大なデータセットのプールを活用している。
実験の結果,FMのモーダリティ固有の事前学習は性能を向上させるが,個々のデータセットの特徴に基づいて訓練された分類器はドメイン間の一般化に失敗することがわかった。
論文 参考訳(メタデータ) (2025-05-14T06:56:17Z) - Mitigating Group-Level Fairness Disparities in Federated Visual Language Models [115.16940773660104]
本稿では、FLと公正なプロンプトチューニング技術を組み合わせた新しいフレームワークであるFVL-FPを紹介する。
モデル性能を維持しながら、人口統計バイアスを軽減することに注力する。
本手法は,標準FL法に比べて平均45%の人口格差を減少させる。
論文 参考訳(メタデータ) (2025-05-03T16:09:52Z) - FairREAD: Re-fusing Demographic Attributes after Disentanglement for Fair Medical Image Classification [3.615240611746158]
FairREAD (Fair Refusion After Disentanglement) は, センシティブな階層属性を公正な画像表現に再統合することで不公平を緩和するフレームワークである。
FairREADは、臨床に関係のある詳細を保存するために、制御された再灌流機構を使用しながら、人口統計情報をアンタングルする敵の訓練を採用している。
大規模臨床X線データセットの総合的評価は、FairREADが診断精度を維持しながら不公平度指標を著しく低減することを示した。
論文 参考訳(メタデータ) (2024-12-20T22:17:57Z) - Cross-Care: Assessing the Healthcare Implications of Pre-training Data on Language Model Bias [3.455189439319919]
大規模な言語モデル(LLM)におけるバイアスと実世界の知識を評価するための最初のベンチマークフレームワークであるCross-Careを紹介する。
ThePile$のような事前学習コーパスに埋め込まれた人口統計バイアスがLLMの出力にどのように影響するかを評価する。
以上の結果から, LLMの病状有病率と, 集団間での実際の病状有病率との相違が明らかとなった。
論文 参考訳(メタデータ) (2024-05-09T02:33:14Z) - Fairness Evolution in Continual Learning for Medical Imaging [47.52603262576663]
本研究では、ドメイン固有の公平度指標を用いてタスク間でバイアスがどのように進化し、異なるCL戦略がこの進化にどのように影響するかを検討する。
以上の結果から,擬似ラベルと擬似ラベルの学習は最適分類性能を実現するが,擬似ラベルの偏りは小さいことが示唆された。
論文 参考訳(メタデータ) (2024-04-10T09:48:52Z) - How does promoting the minority fraction affect generalization? A theoretical study of the one-hidden-layer neural network on group imbalance [64.1656365676171]
グループ不均衡は経験的リスク最小化において既知の問題である。
本稿では,個々の集団がサンプルの複雑さ,収束率,平均および群レベルの試験性能に与える影響を定量化する。
論文 参考訳(メタデータ) (2024-03-12T04:38:05Z) - Evaluating the Fairness of the MIMIC-IV Dataset and a Baseline
Algorithm: Application to the ICU Length of Stay Prediction [65.268245109828]
本稿では、MIMIC-IVデータセットを用いて、滞在時間を予測するXGBoostバイナリ分類モデルにおける公平性とバイアスについて検討する。
この研究は、人口統計属性にわたるデータセットのクラス不均衡を明らかにし、データ前処理と特徴抽出を採用する。
この論文は、偏見を緩和するための公正な機械学習技術と、医療専門家とデータサイエンティストの協力的な努力の必要性について結論付けている。
論文 参考訳(メタデータ) (2023-12-31T16:01:48Z) - Bootstrapping Your Own Positive Sample: Contrastive Learning With
Electronic Health Record Data [62.29031007761901]
本稿では,新しいコントラスト型正規化臨床分類モデルを提案する。
EHRデータに特化した2つのユニークなポジティブサンプリング戦略を紹介します。
私たちのフレームワークは、現実世界のCOVID-19 EHRデータの死亡リスクを予測するために、競争の激しい実験結果をもたらします。
論文 参考訳(メタデータ) (2021-04-07T06:02:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。