論文の概要: Reading Race: AI Recognises Patient's Racial Identity In Medical Images
- arxiv url: http://arxiv.org/abs/2107.10356v1
- Date: Wed, 21 Jul 2021 21:10:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-23 23:35:29.441118
- Title: Reading Race: AI Recognises Patient's Racial Identity In Medical Images
- Title(参考訳): 読み人種:aiは医療画像で患者の人種的アイデンティティを認識する
- Authors: Imon Banerjee, Ananth Reddy Bhimireddy, John L. Burns, Leo Anthony
Celi, Li-Ching Chen, Ramon Correa, Natalie Dullerud, Marzyeh Ghassemi,
Shih-Cheng Huang, Po-Chih Kuo, Matthew P Lungren, Lyle Palmer, Brandon J
Price, Saptarshi Purkayastha, Ayis Pyrros, Luke Oakden-Rayner, Chima
Okechukwu, Laleh Seyyed-Kalantari, Hari Trivedi, Ryan Wang, Zachary Zaiman,
Haoran Zhang, Judy W Gichoya
- Abstract要約: 画像の解釈を行う人間の専門家にとって明らかな、医療画像における人種の相関関係は知られていない。
標準的なディープラーニングモデルは、複数の画像モダリティにまたがる高性能な医療画像から競合を予測するためにトレーニングすることができる。
- 参考スコア(独自算出の注目度): 9.287449389763413
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Background: In medical imaging, prior studies have demonstrated disparate AI
performance by race, yet there is no known correlation for race on medical
imaging that would be obvious to the human expert interpreting the images.
Methods: Using private and public datasets we evaluate: A) performance
quantification of deep learning models to detect race from medical images,
including the ability of these models to generalize to external environments
and across multiple imaging modalities, B) assessment of possible confounding
anatomic and phenotype population features, such as disease distribution and
body habitus as predictors of race, and C) investigation into the underlying
mechanism by which AI models can recognize race.
Findings: Standard deep learning models can be trained to predict race from
medical images with high performance across multiple imaging modalities. Our
findings hold under external validation conditions, as well as when models are
optimized to perform clinically motivated tasks. We demonstrate this detection
is not due to trivial proxies or imaging-related surrogate covariates for race,
such as underlying disease distribution. Finally, we show that performance
persists over all anatomical regions and frequency spectrum of the images
suggesting that mitigation efforts will be challenging and demand further
study.
Interpretation: We emphasize that model ability to predict self-reported race
is itself not the issue of importance. However, our findings that AI can
trivially predict self-reported race -- even from corrupted, cropped, and
noised medical images -- in a setting where clinical experts cannot, creates an
enormous risk for all model deployments in medical imaging: if an AI model
secretly used its knowledge of self-reported race to misclassify all Black
patients, radiologists would not be able to tell using the same data the model
has access to.
- Abstract(参考訳): 背景: 医学画像学では、先行研究では、人種ごとにAIのパフォーマンスが異なることが示されているが、画像を理解する人間の専門家にとって明らかな、医療画像の人種に関する相関関係は知られていない。
Methods: Using private and public datasets we evaluate: A) performance quantification of deep learning models to detect race from medical images, including the ability of these models to generalize to external environments and across multiple imaging modalities, B) assessment of possible confounding anatomic and phenotype population features, such as disease distribution and body habitus as predictors of race, and C) investigation into the underlying mechanism by which AI models can recognize race.
結果: 標準的なディープラーニングモデルは、複数の画像モードにまたがる高いパフォーマンスを持つ医療画像から人種を予測するように訓練することができる。
臨床的に動機づけられたタスクの実行にモデルが最適化された場合と同様に, 外部の検証条件下でも有効である。
この検出は, 疾患の分布など, 自明なプロキシや画像関連サロゲート共変体によるものではないことを実証する。
最後に, 画像の解剖学的領域および周波数スペクトルについて, 緩和努力は困難であり, さらなる研究が必要であることを示す。
解釈: 自己報告された人種を予測するモデル能力は、それ自体が重要ではないことを強調する。
しかし、臨床の専門家ができないような環境では、AIが自己申告された人種 ― 腐敗、収穫、ノイズのある医療画像からでも -- を自覚的に予測できるという私たちの発見は、医療画像におけるすべてのモデル展開に対して巨大なリスクを生じさせます。
関連論文リスト
- DiffExplainer: Unveiling Black Box Models Via Counterfactual Generation [11.201840101870808]
ブラックボックスモデルに接続した場合に異なる決定を誘導する反ファクト画像を生成することができるエージェントモデルを提案する。
このエージェントモデルを用いることで、ブラックモデルの最終予測に影響を与える影響のあるイメージパターンを明らかにすることができる。
医療予後タスクの厳格な領域におけるアプローチの検証を行った。
論文 参考訳(メタデータ) (2024-06-21T14:27:02Z) - Demographic Bias of Expert-Level Vision-Language Foundation Models in
Medical Imaging [13.141767097232796]
自己監督型視覚言語基盤モデルは、明示的なトレーニングアノテーションに頼ることなく、幅広い病態を検出することができる。
これらのAIモデルが人間の偏見を反映または増幅しないことを保証することが不可欠である。
本研究では,5つのグローバルソースデータセットを対象とした胸部X線診断における最先端の視覚言語基盤モデルのアルゴリズム的公正性について検討した。
論文 参考訳(メタデータ) (2024-02-22T18:59:53Z) - The Limits of Fair Medical Imaging AI In The Wild [43.97266228706059]
医療用AIが人口統計エンコーディングをどのように利用するかを検討する。
医療画像AIは、疾患分類において、人口動態のショートカットを利用することを確認した。
人口統計属性のエンコーディングが少ないモデルは、しばしば「グローバルに最適」であることがわかった。
論文 参考訳(メタデータ) (2023-12-11T18:59:50Z) - Deep Learning Discovery of Demographic Biomarkers in Echocardiography [0.3957768262206625]
深層学習アルゴリズムを用いて、心エコー画像から年齢、人種、性別を予測することができるかどうかを検証する。
年齢、性別、人種を予測するために、ビデオベースの畳み込みニューラルネットワークをトレーニングしました。
ディープラーニングモデルは、人種を確実に予測できず、年齢と性別を識別できることがわかった。
論文 参考訳(メタデータ) (2022-07-13T16:48:49Z) - RadFusion: Benchmarking Performance and Fairness for Multimodal
Pulmonary Embolism Detection from CT and EHR [14.586822005217485]
肺塞栓症と診断されたEHRデータとCTを併用した1794例のベンチマークデータセットであるRadFusionを報告する。
以上の結果から,画像とEHRデータの統合により,集団間での正の正の比率に大きな差が生じることなく,分類性能が向上することが示唆された。
論文 参考訳(メタデータ) (2021-11-23T06:10:07Z) - Malignancy Prediction and Lesion Identification from Clinical
Dermatological Images [65.1629311281062]
臨床皮膚画像から機械学習に基づく悪性度予測と病変の同定を検討する。
まず, サブタイプや悪性度に関わらず画像に存在するすべての病変を同定し, その悪性度を推定し, 凝集により, 画像レベルの悪性度も生成する。
論文 参考訳(メタデータ) (2021-04-02T20:52:05Z) - An Interpretable Multiple-Instance Approach for the Detection of
referable Diabetic Retinopathy from Fundus Images [72.94446225783697]
基礎画像における参照糖尿病網膜症検出のための機械学習システムを提案する。
画像パッチから局所情報を抽出し,アテンション機構により効率的に組み合わせることで,高い分類精度を実現することができる。
我々は,現在入手可能な網膜画像データセットに対するアプローチを評価し,最先端の性能を示す。
論文 参考訳(メタデータ) (2021-03-02T13:14:15Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Convolutional-LSTM for Multi-Image to Single Output Medical Prediction [55.41644538483948]
発展途上国の一般的なシナリオは、複数の理由からボリュームメタデータが失われることである。
ヒトの診断過程を模倣したマルチイメージから単一診断モデルを得ることが可能である。
論文 参考訳(メタデータ) (2020-10-20T04:30:09Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z) - Hemogram Data as a Tool for Decision-making in COVID-19 Management:
Applications to Resource Scarcity Scenarios [62.997667081978825]
新型コロナウイルス(COVID-19)のパンデミックは世界中の緊急対応システムに挑戦している。
本研究は, 症状患者の血液検査データから得られた機械学習モデルについて述べる。
提案されたモデルでは、新型コロナウイルスqRT-PCRの結果を、高い精度、感度、特異性で症状のある個人に予測することができる。
論文 参考訳(メタデータ) (2020-05-10T01:45:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。