論文の概要: RadFusion: Benchmarking Performance and Fairness for Multimodal
Pulmonary Embolism Detection from CT and EHR
- arxiv url: http://arxiv.org/abs/2111.11665v1
- Date: Tue, 23 Nov 2021 06:10:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-24 16:05:20.286951
- Title: RadFusion: Benchmarking Performance and Fairness for Multimodal
Pulmonary Embolism Detection from CT and EHR
- Title(参考訳): RadFusion:CT, EHRによる肺塞栓症診断のベンチマークと公正性
- Authors: Yuyin Zhou, Shih-Cheng Huang, Jason Alan Fries, Alaa Youssef, Timothy
J. Amrhein, Marcello Chang, Imon Banerjee, Daniel Rubin, Lei Xing, Nigam
Shah, and Matthew P. Lungren
- Abstract要約: 肺塞栓症と診断されたEHRデータとCTを併用した1794例のベンチマークデータセットであるRadFusionを報告する。
以上の結果から,画像とEHRデータの統合により,集団間での正の正の比率に大きな差が生じることなく,分類性能が向上することが示唆された。
- 参考スコア(独自算出の注目度): 14.586822005217485
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the routine use of electronic health record (EHR) data by
radiologists to contextualize clinical history and inform image interpretation,
the majority of deep learning architectures for medical imaging are unimodal,
i.e., they only learn features from pixel-level information. Recent research
revealing how race can be recovered from pixel data alone highlights the
potential for serious biases in models which fail to account for demographics
and other key patient attributes. Yet the lack of imaging datasets which
capture clinical context, inclusive of demographics and longitudinal medical
history, has left multimodal medical imaging underexplored. To better assess
these challenges, we present RadFusion, a multimodal, benchmark dataset of 1794
patients with corresponding EHR data and high-resolution computed tomography
(CT) scans labeled for pulmonary embolism. We evaluate several representative
multimodal fusion models and benchmark their fairness properties across
protected subgroups, e.g., gender, race/ethnicity, age. Our results suggest
that integrating imaging and EHR data can improve classification performance
and robustness without introducing large disparities in the true positive rate
between population groups.
- Abstract(参考訳): 電子健康記録(ehr)データを使用して臨床史をコンテキスト化し、画像解釈を知らせるが、医療画像のためのディープラーニングアーキテクチャの大部分はユニモーダルであり、ピクセルレベルの情報からのみ特徴を学習する。
最近の研究では、ピクセルデータのみから人種を回復する方法が明らかにされ、人口統計やその他の主要な患者属性を説明できないモデルにおける深刻なバイアスの可能性を浮き彫りにしている。
しかし、人口統計学や縦断医療史を包含する臨床的文脈を捉えた画像データセットの欠如は、マルチモーダル医療画像の探求を過小評価している。
これらの課題をよりよく評価するために,肺塞栓症と診断されたEHRデータと高分解能CTスキャンを用いた1794患者のマルチモーダルベンチマークデータセットであるRadFusionを提案する。
本研究では,複数の代表的マルチモーダル融合モデルを評価し,性別,人種・民族性,年齢といった保護された部分群にまたがる公平性を評価する。
以上の結果から,画像とehrデータの統合は,集団間の正の正の率に大きな差を生じさせることなく,分類性能とロバスト性を向上できることが示唆された。
関連論文リスト
- HyperFusion: A Hypernetwork Approach to Multimodal Integration of Tabular and Medical Imaging Data for Predictive Modeling [4.44283662576491]
EHRの値と測定値に画像処理を条件付け,臨床画像と表層データを融合させるハイパーネットワークに基づく新しいフレームワークを提案する。
このアプローチは、これらのモダリティに存在する相補的な情報を活用し、様々な医療応用の精度を高めることを目的としている。
論文 参考訳(メタデータ) (2024-03-20T05:50:04Z) - Medical Report Generation based on Segment-Enhanced Contrastive
Representation Learning [39.17345313432545]
臓器, 異常, 骨等を分類するためのMSCL(医学画像とコントラスト学習)を提案する。
トレーニング中にターゲットとセマンティックに類似したレポートにより多くの重みを割り当てる教師付きコントラスト損失を導入する。
実験の結果,提案手法の有効性が示され,IU X線公開データセット上での最先端性能が得られた。
論文 参考訳(メタデータ) (2023-12-26T03:33:48Z) - Radiology Report Generation Using Transformers Conditioned with
Non-imaging Data [55.17268696112258]
本稿では,胸部X線画像と関連する患者の人口統計情報を統合したマルチモーダルトランスフォーマーネットワークを提案する。
提案ネットワークは、畳み込みニューラルネットワークを用いて、CXRから視覚的特徴を抽出し、その視覚的特徴と患者の人口統計情報のセマンティックテキスト埋め込みを組み合わせたトランスフォーマーベースのエンコーダデコーダネットワークである。
論文 参考訳(メタデータ) (2023-11-18T14:52:26Z) - Beyond Images: An Integrative Multi-modal Approach to Chest X-Ray Report
Generation [47.250147322130545]
画像からテキストまでの放射線学レポート生成は,医療画像の発見を記述した放射線学レポートを自動生成することを目的としている。
既存の方法の多くは画像データのみに焦点をあてており、他の患者情報は放射線科医に公開されていない。
胸部X線レポートを生成するための多モードディープニューラルネットワークフレームワークを,非構造的臨床ノートとともにバイタルサインや症状などの構造化された患者データを統合することで提案する。
論文 参考訳(メタデータ) (2023-11-18T14:37:53Z) - INSPECT: A Multimodal Dataset for Pulmonary Embolism Diagnosis and
Prognosis [19.32686665459374]
肺塞栓症(PE)リスクの高い大コホートからの非同定型経時的記録を含むINSPECTについて紹介する。
INSPECTには、CT画像、放射線医学報告印象セクション、構造化電子健康記録(EHR)データ(人口統計、診断、手順、バイタル、医薬品など)を含む19,402人のデータが含まれている。
論文 参考訳(メタデータ) (2023-11-17T07:28:16Z) - C^2M-DoT: Cross-modal consistent multi-view medical report generation
with domain transfer network [67.97926983664676]
ドメイン転送ネットワーク(C2M-DoT)を用いたクロスモーダルなマルチビュー医療レポート生成を提案する。
C2M-DoTは、すべてのメトリクスで最先端のベースラインを大幅に上回る。
論文 参考訳(メタデータ) (2023-10-09T02:31:36Z) - Vision-Language Modelling For Radiological Imaging and Reports In The
Low Data Regime [70.04389979779195]
本稿では,視覚および言語入力を共通空間に埋め込んだ医用視覚言語モデル(VLM)について検討する。
本稿では,新しい画像領域やテキスト領域への汎用事前学習モデルの適用など,低データ性能向上のためのいくつかの候補手法について検討する。
テキスト・ツー・イメージ検索をベンチマークとして,2つの胸部X線および放射線学的報告を用いた可変サイズのトレーニングデータセットを用いて,これらの手法の性能評価を行った。
論文 参考訳(メタデータ) (2023-03-30T18:20:00Z) - Variational Knowledge Distillation for Disease Classification in Chest
X-Rays [102.04931207504173]
我々は,X線に基づく疾患分類のための新しい確率的推論フレームワークである反復的知識蒸留(VKD)を提案する。
提案手法の有効性を,X線画像とEHRを用いた3つの公開ベンチマークデータセットに示す。
論文 参考訳(メタデータ) (2021-03-19T14:13:56Z) - Cross-Modal Information Maximization for Medical Imaging: CMIM [62.28852442561818]
病院では、同じ情報を異なるモダリティの下で利用できるようにする特定の情報システムにデータがサイロ化される。
これは、テスト時に常に利用できないかもしれない同じ情報の複数のビューを列車で取得し、使用するためのユニークな機会を提供する。
テスト時にモダリティの低下に耐性を持つマルチモーダル入力の優れた表現を学習することで、利用可能なデータを最大限活用する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T20:05:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。