論文の概要: Fairness-Aware Fine-Tuning of Vision-Language Models for Medical Glaucoma Diagnosis
- arxiv url: http://arxiv.org/abs/2512.03477v1
- Date: Wed, 03 Dec 2025 06:09:14 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 12:16:58.787194
- Title: Fairness-Aware Fine-Tuning of Vision-Language Models for Medical Glaucoma Diagnosis
- Title(参考訳): 医用緑内障診断のための視覚言語モデルの公平性を考慮した微調整
- Authors: Zijian Gu, Yuxi Liu, Zhenhao Zhang, Song Wang,
- Abstract要約: 医療用視覚言語モデルのためのフェアネス対応低ランク適応を提案する。
GR-LoRAは診断精度の差を69%削減し、全体的な精度は53.15%を維持している。
当社のアプローチではトレーニング可能なパラメータは0.24%に過ぎず、リソース制約のある医療環境に公正な医療AIを実践的に展開することが可能です。
- 参考スコア(独自算出の注目度): 12.26273787776614
- License:
- Abstract: Vision-language models achieve expert-level performance on medical imaging tasks but exhibit significant diagnostic accuracy disparities across demographic groups. We introduce fairness-aware Low-Rank Adaptation for medical VLMs, combining parameter efficiency with explicit fairness optimization. Our key algorithmic contribution is a differentiable MaxAccGap loss that enables end-to-end optimization of accuracy parity across demographic groups. We propose three methods: FR-LoRA integrates MaxAccGap regularization into the training objective, GR-LoRA applies inverse frequency weighting to balance gradient contributions, and Hybrid-LoRA combines both mechanisms.Evaluated on 10,000 glaucoma fundus images, GR-LoRA reduces diagnostic accuracy disparities by 69% while maintaining 53.15% overall accuracy. Ablation studies reveal that strong regularization strength achieves optimal fairness with minimal accuracy trade-off, and race-specific optimization yields 60% disparity reduction. Our approach requires only 0.24% trainable parameters, enabling practical deployment of fair medical AI in resource-constrained healthcare settings.
- Abstract(参考訳): ヴィジュアル言語モデルは、医用画像のタスクにおいて専門家レベルのパフォーマンスを達成するが、人口集団間での診断精度の相違が顕著である。
本稿では、パラメータ効率と明確な公正度最適化を組み合わせた、医療用VLMのためのフェアネス対応低ランク適応を提案する。
我々のアルゴリズムの主な貢献は、人口集団間での精度のエンドツーエンドの最適化を可能にする、差別化可能なMaxAccGap損失である。
FR-LoRAはMaxAccGap正規化をトレーニング目標に統合し、GR-LoRAは逆周波数重み付けを適用し、Hybrid-LoRAは両方のメカニズムを組み合わせ、GR-LoRAは1万個の緑内障眼底画像に基づいて、53.15%の精度を維持しながら診断精度の差を69%低減する。
アブレーション研究により、強い正則化強度は最小の精度のトレードオフで最適な公正性を達成し、レース固有の最適化は60%の格差を減少させることが明らかとなった。
当社のアプローチではトレーニング可能なパラメータは0.24%に過ぎず、リソース制約のある医療環境に公正な医療AIを実践的に展開することが可能です。
関連論文リスト
- LGE-Guided Cross-Modality Contrastive Learning for Gadolinium-Free Cardiomyopathy Screening in Cine CMR [51.11296719862485]
CMRを用いたガドリニウムフリー心筋症スクリーニングのためのコントラシブラーニングおよびクロスモーダルアライメントフレームワークを提案する。
CMRとLate Gadolinium Enhancement (LGE) 配列の潜伏空間を整列させることにより, 本モデルでは線維症特異的な病理組織をCMR埋め込みにエンコードする。
論文 参考訳(メタデータ) (2025-08-23T07:21:23Z) - Adaptive Cluster Collaborativeness Boosts LLMs Medical Decision Support Capacity [24.722167779987814]
大規模言語モデル(LLM)は自然言語処理システムにおいて有効であることが証明されている。
本稿では,自己多様性と相互整合性を考慮したクラスタ協調手法を提案する。
本手法は,全分野にまたがる公的なパススコアまでの精度を実現する。
論文 参考訳(メタデータ) (2025-07-25T04:21:16Z) - RARL: Improving Medical VLM Reasoning and Generalization with Reinforcement Learning and LoRA under Data and Hardware Constraints [0.0]
Reasoning-Aware Reinforcement Learning frameworkは、医療ビジョン言語モデルの推論能力を高める。
低ランク適応とカスタム報酬関数を用いた軽量ベースモデルQwen2-VL-2B-Instructを微調整する。
RARLは医用画像解析および臨床推論におけるVLM性能を著しく改善することを示した。
論文 参考訳(メタデータ) (2025-06-07T00:26:23Z) - DisCO: Reinforcing Large Reasoning Models with Discriminative Constrained Optimization [50.91849555841057]
グループ相対政策最適化は大規模推論モデル(LRM)の強化学習手法である
差別学習の原則を基礎として, LRMの強化のための新たな差別的制約付き最適化フレームワークを導入する。
DisCO は GRPO と DAPO などの改良型を著しく上回り、GRPO の7%、DAPO の6% を平均的に上回っている。
論文 参考訳(メタデータ) (2025-05-18T11:08:32Z) - Balancing Fairness and Performance in Healthcare AI: A Gradient Reconciliation Approach [3.997371369137763]
明示的な公平性を考慮せずにデプロイされたAIシステムは、既存の医療格差を悪化させるリスクを負う。
予測性能とマルチ属性フェアネス最適化のバランスをとる新しい勾配調整フレームワークであるFairGradを提案する。
論文 参考訳(メタデータ) (2025-04-19T19:24:34Z) - A Cascaded Dilated Convolution Approach for Mpox Lesion Classification [0.0]
Mpoxウイルスは、他の皮膚疾患と視覚的に類似しているため、重要な診断上の課題を呈する。
深層学習に基づく皮膚病変分類のアプローチは、有望な代替手段を提供する。
本稿では,これらの課題に対処するためのCascaded Atrous Group Attentionフレームワークを紹介する。
論文 参考訳(メタデータ) (2024-12-13T12:47:30Z) - MMed-RAG: Versatile Multimodal RAG System for Medical Vision Language Models [49.765466293296186]
近年,Med-LVLM (Med-LVLMs) の進歩により,対話型診断ツールの新たな可能性が高まっている。
Med-LVLMは、しばしば事実の幻覚に悩まされ、誤った診断につながることがある。
我々は,Med-LVLMの現実性を高めるために,多目的マルチモーダルRAGシステムMMed-RAGを提案する。
論文 参考訳(メタデータ) (2024-10-16T23:03:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。