論文の概要: Demographic Bias of Expert-Level Vision-Language Foundation Models in
Medical Imaging
- arxiv url: http://arxiv.org/abs/2402.14815v1
- Date: Thu, 22 Feb 2024 18:59:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-23 13:56:44.401710
- Title: Demographic Bias of Expert-Level Vision-Language Foundation Models in
Medical Imaging
- Title(参考訳): 医用画像におけるエキスパートレベル視覚言語基礎モデルのデモグラフィー的バイアス
- Authors: Yuzhe Yang, Yujia Liu, Xin Liu, Avanti Gulhane, Domenico Mastrodicasa,
Wei Wu, Edward J Wang, Dushyant W Sahani, Shwetak Patel
- Abstract要約: 自己監督型視覚言語基盤モデルは、明示的なトレーニングアノテーションに頼ることなく、幅広い病態を検出することができる。
これらのAIモデルが人間の偏見を反映または増幅しないことを保証することが不可欠である。
本研究では,5つのグローバルソースデータセットを対象とした胸部X線診断における最先端の視覚言語基盤モデルのアルゴリズム的公正性について検討した。
- 参考スコア(独自算出の注目度): 13.141767097232796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Advances in artificial intelligence (AI) have achieved expert-level
performance in medical imaging applications. Notably, self-supervised
vision-language foundation models can detect a broad spectrum of pathologies
without relying on explicit training annotations. However, it is crucial to
ensure that these AI models do not mirror or amplify human biases, thereby
disadvantaging historically marginalized groups such as females or Black
patients. The manifestation of such biases could systematically delay essential
medical care for certain patient subgroups. In this study, we investigate the
algorithmic fairness of state-of-the-art vision-language foundation models in
chest X-ray diagnosis across five globally-sourced datasets. Our findings
reveal that compared to board-certified radiologists, these foundation models
consistently underdiagnose marginalized groups, with even higher rates seen in
intersectional subgroups, such as Black female patients. Such demographic
biases present over a wide range of pathologies and demographic attributes.
Further analysis of the model embedding uncovers its significant encoding of
demographic information. Deploying AI systems with these biases in medical
imaging can intensify pre-existing care disparities, posing potential
challenges to equitable healthcare access and raising ethical questions about
their clinical application.
- Abstract(参考訳): 人工知能(AI)の進歩は、医療画像の応用において専門家レベルのパフォーマンスを達成した。
特に、自己監督型視覚言語基礎モデルでは、明示的なトレーニングアノテーションに頼ることなく、幅広い病態を検出できる。
しかし、これらのAIモデルが人間の偏見を反映または増幅しないことを保証することが不可欠である。
このような偏見の出現は、特定の患者サブグループの必須医療を体系的に遅らせる可能性がある。
本研究では、胸部x線診断における最先端視覚言語基盤モデルのアルゴリズム的公平性について、5つのグローバルソースデータセットで検討する。
以上の結果から,黒毛和種女性患者などの交叉性サブグループでは,これらの基礎モデルが有意な診断を受けていないことが明らかとなった。
このような人口統計バイアスは、幅広い病理学と人口統計学的特性にまたがる。
モデル埋め込みのさらなる分析は、その重要な人口統計情報のエンコーディングを明らかにする。
医療画像にこれらのバイアスを持つaiシステムをデプロイすることは、既存の医療格差を増大させ、医療アクセスの公平化と臨床応用に関する倫理的疑問を提起する潜在的な課題を提起する。
関連論文リスト
- Potential of Multimodal Large Language Models for Data Mining of Medical Images and Free-text Reports [51.45762396192655]
特にGemini-Vision-Series (Gemini) と GPT-4-Series (GPT-4) は、コンピュータビジョンのための人工知能のパラダイムシフトを象徴している。
本研究は,14の医用画像データセットを対象に,Gemini,GPT-4,および4つの一般的な大規模モデルの性能評価を行った。
論文 参考訳(メタデータ) (2024-07-08T09:08:42Z) - The Limits of Fair Medical Imaging AI In The Wild [43.97266228706059]
医療用AIが人口統計エンコーディングをどのように利用するかを検討する。
医療画像AIは、疾患分類において、人口動態のショートカットを利用することを確認した。
人口統計属性のエンコーディングが少ないモデルは、しばしば「グローバルに最適」であることがわかった。
論文 参考訳(メタデータ) (2023-12-11T18:59:50Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Generative models improve fairness of medical classifiers under
distribution shifts [49.10233060774818]
データから現実的な拡張を自動的に学習することは、生成モデルを用いてラベル効率の良い方法で可能であることを示す。
これらの学習の強化は、モデルをより堅牢で統計的に公平に配布できることを示した。
論文 参考訳(メタデータ) (2023-04-18T18:15:38Z) - The EMory BrEast imaging Dataset (EMBED): A Racially Diverse, Granular
Dataset of 3.5M Screening and Diagnostic Mammograms [2.243792799100692]
EMory BrEast画像データセットには3650,000の2Dと診断用マンモグラフィーが含まれており、白人とアフリカ系アメリカ人の患者に等しく分けられている。
私たちの目標は、このデータセットを研究パートナーと共有し、すべての患者に公平に提供し、医療AIのバイアスを減らすための乳房AIモデルの開発と検証を支援することです。
論文 参考訳(メタデータ) (2022-02-08T14:40:59Z) - Generative Residual Attention Network for Disease Detection [51.60842580044539]
本稿では, 条件付き生成逆学習を用いたX線疾患発生のための新しいアプローチを提案する。
我々は,患者の身元を保存しながら,対象領域に対応する放射線画像を生成する。
次に、ターゲット領域で生成されたX線画像を用いてトレーニングを増強し、検出性能を向上させる。
論文 参考訳(メタデータ) (2021-10-25T14:15:57Z) - Reading Race: AI Recognises Patient's Racial Identity In Medical Images [9.287449389763413]
画像の解釈を行う人間の専門家にとって明らかな、医療画像における人種の相関関係は知られていない。
標準的なディープラーニングモデルは、複数の画像モダリティにまたがる高性能な医療画像から競合を予測するためにトレーニングすることができる。
論文 参考訳(メタデータ) (2021-07-21T21:10:16Z) - An Interpretable Multiple-Instance Approach for the Detection of
referable Diabetic Retinopathy from Fundus Images [72.94446225783697]
基礎画像における参照糖尿病網膜症検出のための機械学習システムを提案する。
画像パッチから局所情報を抽出し,アテンション機構により効率的に組み合わせることで,高い分類精度を実現することができる。
我々は,現在入手可能な網膜画像データセットに対するアプローチを評価し,最先端の性能を示す。
論文 参考訳(メタデータ) (2021-03-02T13:14:15Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Risk of Training Diagnostic Algorithms on Data with Demographic Bias [0.5599792629509227]
医用画像解析アプリケーションにおけるMICCAI 2018の実践を調査するために,MICCAI 2018の手順を調査した。
意外なことに、診断に焦点を当てた論文では、使用されるデータセットの人口統計がほとんど書かれていないことが判明した。
本研究では,非偏りのある特徴を,対向的な学習環境において,人口統計変数を明示的に使用することにより学習可能であることを示す。
論文 参考訳(メタデータ) (2020-05-20T13:51:01Z) - Heterogeneity Loss to Handle Intersubject and Intrasubject Variability
in Cancer [11.440201348567681]
深層学習(DL)モデルは、医学領域において顕著な結果を示している。
これらのAI手法は、開発途上国に安価な医療ソリューションとして大きな支援を提供することができる。
この研究は、そのような血液がん診断の応用に焦点をあてている。
論文 参考訳(メタデータ) (2020-03-06T16:16:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。