論文の概要: Risk of Bias in Chest X-ray Foundation Models
- arxiv url: http://arxiv.org/abs/2209.02965v2
- Date: Mon, 19 Dec 2022 10:02:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 11:01:09.198106
- Title: Risk of Bias in Chest X-ray Foundation Models
- Title(参考訳): 胸部X線基礎モデルにおけるバイアスのリスク
- Authors: Ben Glocker, Charles Jones, Melanie Bernhardt, Stefan Winzeck
- Abstract要約: ファンデーションモデルは、AIのあらゆる応用におけるブレークスルーと見なされている。
モデルが生物学的性や人種的アイデンティティを含む保護された特徴をコード化していると考えられるため,懸念の理由が判明した。
疾患検出の下流適用に使用すると,基礎モデルの性能が著しく低下するのが観察された。
- 参考スコア(独自算出の注目度): 18.240696940469235
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Foundation models are considered a breakthrough in all applications of AI,
promising robust and reusable mechanisms for feature extraction, alleviating
the need for large amounts of high quality annotated training data for
task-specific prediction models. However, foundation models may potentially
encode and even reinforce existing biases present in historic datasets. Given
the limited ability to scrutinize foundation models, it remains unclear whether
the opportunities outweigh the risks in safety critical applications such as
clinical decision making. In our statistical bias analysis of a recently
published, and publicly accessible chest X-ray foundation model, we found
reasons for concern as the model seems to encode protected characteristics
including biological sex and racial identity. When used for the downstream
application of disease detection, we observed substantial degradation of
performance of the foundation model compared to a standard model with specific
disparities in protected subgroups. While research into foundation models for
healthcare applications is in an early stage, we hope to raise awareness of the
risks by highlighting the importance of conducting thorough bias and subgroup
performance analyses.
- Abstract(参考訳): ファンデーションモデルは、AIのあらゆる応用におけるブレークスルーと見なされ、機能抽出のための堅牢で再利用可能なメカニズムを約束し、タスク固有の予測モデルのための大量の高品質な注釈付きトレーニングデータの必要性を軽減する。
しかし、基礎モデルは、歴史的なデータセットに存在する既存のバイアスをエンコードし、強化する可能性さえある。
基礎モデルを精査する能力が限られているため、臨床意思決定のような安全上重要な応用において、その機会がリスクを上回るかどうかは不明である。
最近公表された胸部X線基礎モデルの統計バイアス分析では,生物性や人種的同一性を含む保護された特徴をコード化しているように見えるため,懸念されている。
疾患検出を下流で行う際には,保護されたサブグループで特異的に異なる標準モデルと比較して基礎モデルの性能が著しく低下するのが観察された。
医療アプリケーションの基礎モデルの研究は初期段階にあるが、徹底的なバイアスとサブグループのパフォーマンス分析の重要性を強調して、リスクに対する認識を高めたいと考えている。
関連論文リスト
- Slicing Through Bias: Explaining Performance Gaps in Medical Image Analysis using Slice Discovery Methods [5.274804664403783]
我々はSlice Discovery Methodsを用いて、観測された性能格差の原因に関する仮説とデータの解釈可能な未実行部分集合を同定する。
本研究は, 仮説定式化におけるSDMの有効性を実証し, 既往の男女間パフォーマンスの相違について解説する。
論文 参考訳(メタデータ) (2024-06-17T23:08:46Z) - Using Pre-training and Interaction Modeling for ancestry-specific disease prediction in UK Biobank [69.90493129893112]
近年のゲノムワイド・アソシエーション(GWAS)研究は、複雑な形質の遺伝的基盤を明らかにしているが、非ヨーロッパ系個体の低発現を示している。
そこで本研究では,マルチオミクスデータを用いて,多様な祖先間での疾患予測を改善することができるかを評価する。
論文 参考訳(メタデータ) (2024-04-26T16:39:50Z) - Analysing race and sex bias in brain age prediction [18.68533487971233]
本稿では,サブグループ性能解析と特徴検査を行うことにより,一般的なResNet-34モデルを解析する。
その結果,黒,白,黒,アジア,男女の予測性能に統計的に有意な差が認められた。
論文 参考訳(メタデータ) (2023-09-19T14:40:19Z) - Multivariate Analysis on Performance Gaps of Artificial Intelligence
Models in Screening Mammography [4.123006816939975]
異常分類のための深層学習モデルは,マンモグラフィーのスクリーニングにおいて良好に機能する。
モデル不全のリスクの増加に伴う人口統計学的、画像的、臨床的特徴はいまだに不明である。
年齢,人種,病理所見,組織密度,画像特徴によって定義されるサブグループによるモデル性能の評価を行った。
論文 参考訳(メタデータ) (2023-05-08T02:28:45Z) - TotalSegmentator: robust segmentation of 104 anatomical structures in CT
images [48.50994220135258]
身体CT画像の深層学習セグメント化モデルを提案する。
このモデルは、臓器の容積、疾患の特徴、外科的または放射線療法計画などのユースケースに関連する104の解剖学的構造を区分することができる。
論文 参考訳(メタデータ) (2022-08-11T15:16:40Z) - Generalizable and Robust Deep Learning Algorithm for Atrial Fibrillation
Diagnosis Across Ethnicities, Ages and Sexes [0.0]
本研究では,AFイベント検出のためのディープラーニング(DL)モデルの一般化性能を初めて開発し,評価した。
ArNet2は、51,386時間連続心電図(ECG)を計上した2,147人の大規模な振り返りデータセットに基づいて開発された。
イスラエルのハイファにあるランバム病院ホルタークリニックから1,730回連続したホルター記録の振り返りデータセットで検証された。
論文 参考訳(メタデータ) (2022-07-20T05:49:16Z) - Deep learning-based COVID-19 pneumonia classification using chest CT
images: model generalizability [54.86482395312936]
深層学習(DL)分類モデルは、異なる国の3DCTデータセット上で、COVID-19陽性患者を特定するために訓練された。
我々は、データセットと72%の列車、8%の検証、20%のテストデータを組み合わせたDLベースの9つの同一分類モデルを訓練した。
複数のデータセットでトレーニングされ、トレーニングに使用されるデータセットの1つからテストセットで評価されたモデルは、よりよいパフォーマンスを示した。
論文 参考訳(メタデータ) (2021-02-18T21:14:52Z) - Chest x-ray automated triage: a semiologic approach designed for
clinical implementation, exploiting different types of labels through a
combination of four Deep Learning architectures [83.48996461770017]
本研究では,異なる畳み込みアーキテクチャの後期融合に基づく深層学習手法を提案する。
公開胸部x線画像と機関アーカイブを組み合わせたトレーニングデータセットを4つ構築した。
4つの異なるディープラーニングアーキテクチャをトレーニングし、それらのアウトプットとレイトフュージョン戦略を組み合わせることで、統一されたツールを得ました。
論文 参考訳(メタデータ) (2020-12-23T14:38:35Z) - Personalized pathology test for Cardio-vascular disease: Approximate
Bayesian computation with discriminative summary statistics learning [48.7576911714538]
近似計算を用いて生物学的に有意なパラメータを推定するための血小板沈着モデルと推論手法を提案する。
この研究は、CVDの検出と治療のためのパーソナライズされた病理検査の先例のない機会を開く。
論文 参考訳(メタデータ) (2020-10-13T15:20:21Z) - Investigating Bias in Deep Face Analysis: The KANFace Dataset and
Empirical Study [67.3961439193994]
現在までに最も包括的で大規模な顔画像とビデオのデータセットを導入している。
データは、アイデンティティ、正確な年齢、性別、親族関係の点で手動で注釈付けされる。
提案したベンチマークでネットワーク埋め込みをデバイアス化する手法を導入し,テストした。
論文 参考訳(メタデータ) (2020-05-15T00:14:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。