論文の概要: Fairness in Multi-modal Medical Diagnosis with Demonstration Selection
- arxiv url: http://arxiv.org/abs/2511.15986v1
- Date: Thu, 20 Nov 2025 02:38:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.434299
- Title: Fairness in Multi-modal Medical Diagnosis with Demonstration Selection
- Title(参考訳): デモストレーション選択によるマルチモーダル医療診断の公正性
- Authors: Dawei Li, Zijian Gu, Peng Wang, Chuhan Song, Zhen Tan, Mohan Zhang, Tianlong Chen, Yu Tian, Song Wang,
- Abstract要約: 人口動態的バランスと意味論的関連性のあるデモを構築するフェアネス・アウェア・デモ・セレクション(FADS)を提案する。
FADSは、性別、人種、民族に関する格差を一貫して減らし、高い精度を維持している。
これらの結果は、公平な医用画像推論のためのスケーラブルでデータ効率のよいソリューションとして、フェアネスを意識したコンテキスト内学習の可能性を強調している。
- 参考スコア(独自算出の注目度): 45.767489124851814
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multimodal large language models (MLLMs) have shown strong potential for medical image reasoning, yet fairness across demographic groups remains a major concern. Existing debiasing methods often rely on large labeled datasets or fine-tuning, which are impractical for foundation-scale models. We explore In-Context Learning (ICL) as a lightweight, tuning-free alternative for improving fairness. Through systematic analysis, we find that conventional demonstration selection (DS) strategies fail to ensure fairness due to demographic imbalance in selected exemplars. To address this, we propose Fairness-Aware Demonstration Selection (FADS), which builds demographically balanced and semantically relevant demonstrations via clustering-based sampling. Experiments on multiple medical imaging benchmarks show that FADS consistently reduces gender-, race-, and ethnicity-related disparities while maintaining strong accuracy, offering an efficient and scalable path toward fair medical image reasoning. These results highlight the potential of fairness-aware in-context learning as a scalable and data-efficient solution for equitable medical image reasoning.
- Abstract(参考訳): マルチモーダル大言語モデル(MLLM)は、医学的画像推論に強い可能性を示しているが、人口統計学的グループ間での公平性は依然として大きな関心事である。
既存のデバイアス法は、しばしば大規模なラベル付きデータセットや微調整に依存しており、基礎的なスケールのモデルでは実用的ではない。
In-Context Learning (ICL) は、公平性を改善するための軽量でチューニング不要な代替手段として検討する。
体系的な分析により、従来のデモ選択(DS)戦略は、選択した事例における人口動態の不均衡による公平性の確保に失敗していることがわかった。
そこで本研究では,クラスタリングに基づくサンプリングにより,階層的バランスと意味的関連性のあるデモを構築するFairness-Aware Demonstration Selection (FADS)を提案する。
複数の医用画像ベンチマークの実験では、FADSは強い精度を維持しつつ、性別、人種、民族に関する格差を一貫して減らし、公正な医用画像推論への効率的かつスケーラブルな道を提供する。
これらの結果は、公平な医用画像推論のためのスケーラブルでデータ効率のよいソリューションとして、フェアネスを意識したコンテキスト内学習の可能性を強調している。
関連論文リスト
- Achieving Fairness Without Harm via Selective Demographic Experts [16.212815178841087]
バイアス緩和技術は、公平性と正確性の間にトレードオフを課すことが多い。
臨床診断のような高い領域では、そのようなトレードオフは倫理的にも現実的にも受け入れられない。
我々は、異なる人口集団の異なる表現を学習し、公平で無害なアプローチを提案する。
論文 参考訳(メタデータ) (2025-11-09T09:11:02Z) - MedAlign: A Synergistic Framework of Multimodal Preference Optimization and Federated Meta-Cognitive Reasoning [52.064286116035134]
我々はMed-VQA(Med-VQA)のための視覚的LVLM応答を保証するフレームワークであるMedAlignを開発した。
まず、優先学習を視覚的コンテキストに合わせるために、マルチモーダルな直接選好最適化(mDPO)の目的を提案する。
次に、画像とテキストの類似性を生かし、クエリを専門的でコンテキスト拡張されたLVLMにルーティングする検索型混合処理(RA-MoE)アーキテクチャを設計する。
論文 参考訳(メタデータ) (2025-10-24T02:11:05Z) - The Boundaries of Fair AI in Medical Image Prognosis: A Causal Perspective [14.359244643730223]
医用画像における時間-時間予測の公平性を評価するための,初の総合的なフレームワークであるFairTTEを紹介する。
FairTTEは、医療画像データセットに埋め込まれた独自のバイアス源を発見し、定量化する。
論文 参考訳(メタデータ) (2025-10-09T21:54:48Z) - Incorporating Rather Than Eliminating: Achieving Fairness for Skin Disease Diagnosis Through Group-Specific Expert [18.169924728540487]
本稿では,FairMoEについて紹介する。FairMoEは,実験モジュールを階層的に混合し,グループ固有の学習者として機能するフレームワークである。
グループラベルに基づいてデータを厳格に割り当てる従来の方法とは異なり、FairMoEはデータを最も適した専門家に動的にルーティングする。
論文 参考訳(メタデータ) (2025-06-21T18:42:00Z) - FairFML: Fair Federated Machine Learning with a Case Study on Reducing Gender Disparities in Cardiac Arrest Outcome Prediction [10.016644624468762]
本稿では,Fair Federated Machine Learning (FairFML)について紹介する。
概念実証として,心停止予測における性差の低減を目的とした実世界の臨床ケーススタディを用いて,FairFMLを検証した。
その結果,FairFMLは局所モデルと集中モデルの両方に匹敵する性能を維持しながら,集中モデルと比較して最大65%のモデルフェアネス向上を実現していることがわかった。
論文 参考訳(メタデータ) (2024-10-07T13:02:04Z) - Improving Fairness in AI Models on Electronic Health Records: The Case
for Federated Learning Methods [0.0]
我々は、医療機関が連合学習パラダイムを通じて協力することで、バイアスの懸念を軽減する1つの可能なアプローチを示す。
本稿では,様々な公正度尺度に適合する,対向的偏りを伴う包括的FL手法とフェアアグリゲーション手法を提案する。
本手法は, 判定性能(精度)に最低限の影響を伴って, 有望な公平性を達成している。
論文 参考訳(メタデータ) (2023-05-19T02:03:49Z) - Ambiguous Medical Image Segmentation using Diffusion Models [60.378180265885945]
我々は,グループ洞察の分布を学習することで,複数の可算出力を生成する単一拡散モデルに基づくアプローチを提案する。
提案モデルでは,拡散の固有のサンプリングプロセスを利用してセグメンテーションマスクの分布を生成する。
その結果,提案手法は既存の最先端曖昧なセグメンテーションネットワークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-04-10T17:58:22Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。