論文の概要: Fairness and Robustness of CLIP-Based Models for Chest X-rays
- arxiv url: http://arxiv.org/abs/2507.21291v1
- Date: Mon, 28 Jul 2025 19:25:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:55.257171
- Title: Fairness and Robustness of CLIP-Based Models for Chest X-rays
- Title(参考訳): 胸部X線に対するCLIPモデルの有用性とロバスト性
- Authors: Théo Sourget, David Restrepo, Céline Hudelot, Enzo Ferrante, Stergios Christodoulidis, Maria Vakalopoulou,
- Abstract要約: 胸部X線分類におけるCLIPをベースとした6つのモデルについて,3つの公開データセットを用いて広範囲に評価した。
年齢,性別,人種に基づいて,6つの条件および患者サブグループにまたがるモデルフェアネスを評価する。
以上の結果から,異なる年齢の患者間での成績差が示唆された。
- 参考スコア(独自算出の注目度): 9.082174810187931
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Motivated by the strong performance of CLIP-based models in natural image-text domains, recent efforts have adapted these architectures to medical tasks, particularly in radiology, where large paired datasets of images and reports, such as chest X-rays, are available. While these models have shown encouraging results in terms of accuracy and discriminative performance, their fairness and robustness in the different clinical tasks remain largely underexplored. In this study, we extensively evaluate six widely used CLIP-based models on chest X-ray classification using three publicly available datasets: MIMIC-CXR, NIH-CXR14, and NEATX. We assess the models fairness across six conditions and patient subgroups based on age, sex, and race. Additionally, we assess the robustness to shortcut learning by evaluating performance on pneumothorax cases with and without chest drains. Our results indicate performance gaps between patients of different ages, but more equitable results for the other attributes. Moreover, all models exhibit lower performance on images without chest drains, suggesting reliance on spurious correlations. We further complement the performance analysis with a study of the embeddings generated by the models. While the sensitive attributes could be classified from the embeddings, we do not see such patterns using PCA, showing the limitations of these visualisation techniques when assessing models. Our code is available at https://github.com/TheoSourget/clip_cxr_fairness
- Abstract(参考訳): 自然画像テキスト領域におけるCLIPベースのモデルの性能向上により、最近の研究はこれらのアーキテクチャを医学的タスク、特に胸部X線などの画像とレポートの大きなペアデータセットが利用できる放射線学に適応させてきた。
これらのモデルでは、精度と差別的性能の面では奨励的な結果を示しているが、異なる臨床課題における公平性と堅牢性は、大半が未発見のままである。
本研究では,MIMIC-CXR,NIH-CXR14,NEATXの3つの公開データセットを用いて,胸部X線分類において広く使用されているCLIPベースの6つのモデルを広く評価した。
年齢,性別,人種に基づいて,6つの条件および患者サブグループにまたがるモデルフェアネスを評価する。
また,胸部ドレナージを伴う気胸症例と胸部ドレナージ例の成績を評価することで,学習のショートカット性を評価する。
以上の結果から,異なる年齢の患者間での成績差が示唆された。
さらに,胸部ドレインを伴わない画像では,全てのモデルが低い性能を示し,スプリアス相関に依存することが示唆された。
さらに、モデルによって生成された埋め込みの研究により、性能解析を補完する。
センシティブな属性は埋め込みから分類できるが,PCAではそのようなパターンは見られず,モデルを評価する際の視覚的手法の限界が示される。
私たちのコードはhttps://github.com/TheoSourget/clip_cxr_fairnessで利用可能です。
関連論文リスト
- Fairness Analysis of CLIP-Based Foundation Models for X-Ray Image Classification [15.98427699337596]
X線画像分類に応用したCLIP様モデルの包括的公平性解析を行う。
我々は,ゼロショット推論と様々な微調整技術を用いて,多様な患者集団と疾患カテゴリーにおけるパフォーマンスと公平性を評価した。
論文 参考訳(メタデータ) (2025-01-31T12:23:50Z) - Benchmarking Robustness of Contrastive Learning Models for Medical Image-Report Retrieval [2.9801426627439453]
本研究では,CLIP,CXR-RePaiR,MedCLIP,CXR-CLIPの4つの最先端コントラスト学習モデルの堅牢性を評価する。
以上の結果から,全ての評価モデルは分布外データに非常に敏感であることが判明した。
これらの制限に対処することにより、医療応用のためのより信頼性の高いクロスドメイン検索モデルを構築することができる。
論文 参考訳(メタデータ) (2025-01-15T20:37:04Z) - Mask of truth: model sensitivity to unexpected regions of medical images [0.9896218845636701]
我々は、胸部X線と眼底画像の分類に畳み込みニューラルネットワーク(CNN)の能力に挑戦する。
マスク戦略に関わらず、PadデータセットでトレーニングされたすべてのモデルがランダムにAUC(Area Under the Curve)を得ることができることを示す。
また,Chaksuデータセットでは,非バイアスモデルに対する期待値に一致した結果が得られた。
論文 参考訳(メタデータ) (2024-12-05T10:06:58Z) - How Does Pruning Impact Long-Tailed Multi-Label Medical Image
Classifiers? [49.35105290167996]
プルーニングは、ディープニューラルネットワークを圧縮し、全体的なパフォーマンスに大きな影響を及ぼすことなく、メモリ使用量と推論時間を短縮する強力なテクニックとして登場した。
この研究は、プルーニングがモデル行動に与える影響を理解するための第一歩である。
論文 参考訳(メタデータ) (2023-08-17T20:40:30Z) - A knee cannot have lung disease: out-of-distribution detection with
in-distribution voting using the medical example of chest X-ray
classification [58.720142291102135]
この研究では、胸部X線分類モデルであるCheXnetを用いて、胸部X線14データセットをトレーニングした。
複数ラベル分類のためのOODデータを検出するために,IDV(In-distriion voting)を提案する。
ID (chest X-ray 14) と OOD データ (IRMA と ImageNet) に基づいてトレーニングした IDV アプローチは,平均で3つのデータセットにわたる 0.999 OOD 検出 AUC を達成した。
論文 参考訳(メタデータ) (2022-08-01T18:20:36Z) - Improving Classification Model Performance on Chest X-Rays through Lung
Segmentation [63.45024974079371]
本稿では, セグメンテーションによる異常胸部X線(CXR)識別性能を向上させるための深層学習手法を提案する。
提案手法は,CXR画像中の肺領域を局所化するための深層ニューラルネットワーク(XLSor)と,大規模CXRデータセットで事前学習した自己教師あり運動量コントラスト(MoCo)モデルのバックボーンを用いたCXR分類モデルである。
論文 参考訳(メタデータ) (2022-02-22T15:24:06Z) - The pitfalls of using open data to develop deep learning solutions for
COVID-19 detection in chest X-rays [64.02097860085202]
深層学習モデルは、胸部X線から新型コロナウイルスを識別するために開発された。
オープンソースデータのトレーニングやテストでは,結果は異例です。
データ分析とモデル評価は、人気のあるオープンソースデータセットであるCOVIDxが実際の臨床問題を代表していないことを示している。
論文 参考訳(メタデータ) (2021-09-14T10:59:11Z) - CheXbreak: Misclassification Identification for Deep Learning Models
Interpreting Chest X-rays [5.263502842508203]
まず、胸部X線モデルが誤分類される可能性がある患者サブグループが存在するかを検討する。
胸部X線モデルの誤分類を予測するため, 患者年齢, 肺病変, 気胸のX線所見は統計的に有意な特徴である。
胸部X線モデルの出力と臨床特徴を用いた誤分類予測器を開発した。
論文 参考訳(メタデータ) (2021-03-18T00:30:19Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - Deep Mining External Imperfect Data for Chest X-ray Disease Screening [57.40329813850719]
我々は、外部のCXRデータセットを組み込むことで、不完全なトレーニングデータにつながると論じ、課題を提起する。
本研究は,多ラベル病分類問題を重み付き独立二分課題として分類する。
我々のフレームワークは、ドメインとラベルの相違を同時にモデル化し、対処し、優れた知識マイニング能力を実現する。
論文 参考訳(メタデータ) (2020-06-06T06:48:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。