論文の概要: AdFair-CLIP: Adversarial Fair Contrastive Language-Image Pre-training for Chest X-rays
- arxiv url: http://arxiv.org/abs/2506.23467v1
- Date: Mon, 30 Jun 2025 02:19:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.893027
- Title: AdFair-CLIP: Adversarial Fair Contrastive Language-Image Pre-training for Chest X-rays
- Title(参考訳): AdFair-CLIP: 胸部X線に対する対向的コントラスト言語-画像事前学習
- Authors: Chenlang Yi, Zizhan Xiong, Qi Qi, Xiyuan Wei, Girish Bathla, Ching-Long Lin, Bobak Jack Mortazavi, Tianbao Yang,
- Abstract要約: 本稿では,AdFair-CLIPについて紹介する。
我々は胸部X線(CXR)データセットの総合的な実験を行い、AdFair-CLIPは公平性と診断精度の両方を著しく向上させることを示した。
- 参考スコア(独自算出の注目度): 31.250542176856907
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Contrastive Language-Image Pre-training (CLIP) models have demonstrated superior performance across various visual tasks including medical image classification. However, fairness concerns, including demographic biases, have received limited attention for CLIP models. This oversight leads to critical issues, particularly those related to race and gender, resulting in disparities in diagnostic outcomes and reduced reliability for underrepresented groups. To address these challenges, we introduce AdFair-CLIP, a novel framework employing adversarial feature intervention to suppress sensitive attributes, thereby mitigating spurious correlations and improving prediction fairness. We conduct comprehensive experiments on chest X-ray (CXR) datasets, and show that AdFair-CLIP significantly enhances both fairness and diagnostic accuracy, while maintaining robust generalization in zero-shot and few-shot scenarios. These results establish new benchmarks for fairness-aware learning in CLIP-based medical diagnostic models, particularly for CXR analysis.
- Abstract(参考訳): 比較言語-画像事前訓練(CLIP)モデルは,医用画像分類を含む様々な視覚的タスクにおいて優れた性能を示した。
しかし、人口統計バイアスを含む公平性の懸念は、CLIPモデルに限定的に注目されている。
この監視は、特に人種や性別に関する重要な問題を引き起こし、診断結果の相違と、表現不足なグループに対する信頼性の低下をもたらす。
これらの課題に対処するために,敵的特徴介入を用いた新たなフレームワークAdFair-CLIPを導入し,感度特性を抑えることにより,突発的相関を緩和し,予測公正性を向上する。
我々は胸部X線(CXR)データセットの総合的な実験を行い、AdFair-CLIPは、ゼロショットおよび少数ショットシナリオにおける堅牢な一般化を維持しつつ、公平性と診断精度の両方を著しく向上させることを示した。
これらの結果は、特にCXR分析において、CLIPに基づく医療診断モデルにおける公平性認識学習のための新しいベンチマークを確立した。
関連論文リスト
- Fairness Analysis of CLIP-Based Foundation Models for X-Ray Image Classification [15.98427699337596]
X線画像分類に応用したCLIP様モデルの包括的公平性解析を行う。
我々は,ゼロショット推論と様々な微調整技術を用いて,多様な患者集団と疾患カテゴリーにおけるパフォーマンスと公平性を評価した。
論文 参考訳(メタデータ) (2025-01-31T12:23:50Z) - Benchmarking Robustness of Contrastive Learning Models for Medical Image-Report Retrieval [2.9801426627439453]
本研究では,CLIP,CXR-RePaiR,MedCLIP,CXR-CLIPの4つの最先端コントラスト学習モデルの堅牢性を評価する。
以上の結果から,全ての評価モデルは分布外データに非常に敏感であることが判明した。
これらの制限に対処することにより、医療応用のためのより信頼性の高いクロスドメイン検索モデルを構築することができる。
論文 参考訳(メタデータ) (2025-01-15T20:37:04Z) - FairREAD: Re-fusing Demographic Attributes after Disentanglement for Fair Medical Image Classification [3.615240611746158]
FairREAD (Fair Refusion After Disentanglement) は, センシティブな階層属性を公正な画像表現に再統合することで不公平を緩和するフレームワークである。
FairREADは、臨床に関係のある詳細を保存するために、制御された再灌流機構を使用しながら、人口統計情報をアンタングルする敵の訓練を採用している。
大規模臨床X線データセットの総合的評価は、FairREADが診断精度を維持しながら不公平度指標を著しく低減することを示した。
論文 参考訳(メタデータ) (2024-12-20T22:17:57Z) - Fair Diagnosis: Leveraging Causal Modeling to Mitigate Medical Bias [14.848344916632024]
医学画像解析では、モデル予測は人種や性別などのセンシティブな属性に影響される可能性がある。
本稿では,感度属性が診断予測に与える影響を低減することを目的とした因果モデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-06T02:59:36Z) - Fairness Evolution in Continual Learning for Medical Imaging [47.52603262576663]
医用画像の分類性能に関する連続学習戦略(CL)の行動について検討した。
我々は,リプレイ,フォーッティングなし学習(LwF),LwF,Pseudo-Label戦略を評価した。
LwF と Pseudo-Label は最適な分類性能を示すが、評価に公正度の測定値を含めると、Pseudo-Label がバイアスが少ないことは明らかである。
論文 参考訳(メタデータ) (2024-04-10T09:48:52Z) - Vision-Language Modelling For Radiological Imaging and Reports In The
Low Data Regime [70.04389979779195]
本稿では,視覚および言語入力を共通空間に埋め込んだ医用視覚言語モデル(VLM)について検討する。
本稿では,新しい画像領域やテキスト領域への汎用事前学習モデルの適用など,低データ性能向上のためのいくつかの候補手法について検討する。
テキスト・ツー・イメージ検索をベンチマークとして,2つの胸部X線および放射線学的報告を用いた可変サイズのトレーニングデータセットを用いて,これらの手法の性能評価を行った。
論文 参考訳(メタデータ) (2023-03-30T18:20:00Z) - Rethinking Semi-Supervised Medical Image Segmentation: A
Variance-Reduction Perspective [51.70661197256033]
医用画像セグメンテーションのための階層化グループ理論を用いた半教師付きコントラスト学習フレームワークARCOを提案する。
まず、分散還元推定の概念を用いてARCOを構築することを提案し、特定の分散還元技術が画素/ボクセルレベルのセグメンテーションタスクにおいて特に有用であることを示す。
5つの2D/3D医療データセットと3つのセマンティックセグメンテーションデータセットのラベル設定が異なる8つのベンチマークで、我々のアプローチを実験的に検証する。
論文 参考訳(メタデータ) (2023-02-03T13:50:25Z) - Evaluating Probabilistic Classifiers: The Triptych [62.997667081978825]
本稿では,予測性能の異なる相補的な側面に焦点をあてた診断グラフィックのトリチチを提案し,研究する。
信頼性図は校正に対処し、受信動作特性(ROC)曲線は識別能力を診断し、マーフィー図は全体的な予測性能と価値を視覚化する。
論文 参考訳(メタデータ) (2023-01-25T19:35:23Z) - Non-Contrastive Learning Meets Language-Image Pre-Training [145.6671909437841]
非コントラスト型言語画像事前学習(nCLIP)の有効性について検討する。
我々は、CLIPとnCLIPを組み合わせたマルチタスクフレームワークであるxCLIPを紹介し、nCLIPが機能セマンティクスの強化にCLIPを支援することを示す。
論文 参考訳(メタデータ) (2022-10-17T17:57:46Z) - Self-Training with Improved Regularization for Sample-Efficient Chest
X-Ray Classification [80.00316465793702]
挑戦的なシナリオで堅牢なモデリングを可能にするディープラーニングフレームワークを提案する。
その結果,85%のラベル付きデータを用いて,大規模データ設定で学習した分類器の性能に適合する予測モデルを構築することができた。
論文 参考訳(メタデータ) (2020-05-03T02:36:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。