論文の概要: Time-to-Event Pretraining for 3D Medical Imaging
- arxiv url: http://arxiv.org/abs/2411.09361v1
- Date: Thu, 14 Nov 2024 11:08:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-15 15:24:56.623420
- Title: Time-to-Event Pretraining for 3D Medical Imaging
- Title(参考訳): 3次元医用イメージングのための時間とイベントの事前トレーニング
- Authors: Zepeng Huo, Jason Alan Fries, Alejandro Lozano, Jeya Maria Jose Valanarasu, Ethan Steinberg, Louis Blankemeier, Akshay S. Chaudhari, Curtis Langlotz, Nigam H. Shah,
- Abstract要約: 本稿では,3次元医用画像モデルのための事前トレーニングフレームワークである,時間とイベントの事前トレーニングを紹介する。
我々は18,945個のCTスキャン(420万枚の2D画像)のデータセットと、何千ものEHR由来のタスクにまたがる時間-時間分布を用いています。
提案手法は,AUROCの平均値が23.7%,HarrellのC-インデックスが29.4%向上し,結果予測が向上する。
- 参考スコア(独自算出の注目度): 44.46415168541444
- License:
- Abstract: With the rise of medical foundation models and the growing availability of imaging data, scalable pretraining techniques offer a promising way to identify imaging biomarkers predictive of future disease risk. While current self-supervised methods for 3D medical imaging models capture local structural features like organ morphology, they fail to link pixel biomarkers with long-term health outcomes due to a missing context problem. Current approaches lack the temporal context necessary to identify biomarkers correlated with disease progression, as they rely on supervision derived only from images and concurrent text descriptions. To address this, we introduce time-to-event pretraining, a pretraining framework for 3D medical imaging models that leverages large-scale temporal supervision from paired, longitudinal electronic health records (EHRs). Using a dataset of 18,945 CT scans (4.2 million 2D images) and time-to-event distributions across thousands of EHR-derived tasks, our method improves outcome prediction, achieving an average AUROC increase of 23.7% and a 29.4% gain in Harrell's C-index across 8 benchmark tasks. Importantly, these gains are achieved without sacrificing diagnostic classification performance. This study lays the foundation for integrating longitudinal EHR and 3D imaging data to advance clinical risk prediction.
- Abstract(参考訳): 医療基盤モデルの台頭と画像データの可用性の向上により、スケーラブルな事前訓練技術は、将来の病気のリスクを予測する画像バイオマーカーを識別する有望な方法を提供する。
現在の3D医療画像モデルのための自己監督的手法は、臓器形態などの局所的な構造的特徴を捉えているが、文脈の問題のため、ピクセルバイオマーカーと長期的な健康上の結果の関連付けに失敗している。
現在のアプローチでは、画像と同時テキスト記述のみから導かれる監督に頼っているため、病気の進行と相関するバイオマーカーを特定するのに必要な時間的文脈が欠如している。
そこで本研究では,2対の縦型電子健康記録(EHR)から大規模な時間的監督を生かした3次元医用画像モデルの事前訓練フレームワークである,時間とイベントの事前トレーニングを導入する。
18,945個のCTスキャン(4.2百万枚の2D画像)と何千ものEHR由来のタスクにまたがる時間-時間分布のデータセットを用いて、AUROCの平均は23.7%、HarrellのC-indexは29.4%向上した。
重要なことに、これらの利得は診断分類性能を犠牲にすることなく達成される。
本研究は, 臨床リスク予測を推し進めるために, 経時的EHRと3次元画像データの統合の基礎を定めている。
関連論文リスト
- Multi-task Learning Approach for Intracranial Hemorrhage Prognosis [0.0]
本稿では,Glasgow Coma Scale と Age の3次元マルチタスク画像モデルを提案する。
提案手法は現状のベースライン画像モデルより優れており,CTスキャンのみを入力として用いた4名の脳神経科医と比較してICH予後に優れていた。
論文 参考訳(メタデータ) (2024-08-16T14:56:17Z) - Harnessing the power of longitudinal medical imaging for eye disease prognosis using Transformer-based sequence modeling [49.52787013516891]
今回提案した Longitudinal Transformer for Survival Analysis (LTSA, Longitudinal Transformer for Survival Analysis, LTSA) は, 縦断的医用画像から動的疾患の予後を予測できる。
時間的注意分析により、最新の画像は典型的には最も影響力のあるものであるが、以前の画像は追加の予後に価値があることが示唆された。
論文 参考訳(メタデータ) (2024-05-14T17:15:28Z) - Towards Enhanced Analysis of Lung Cancer Lesions in EBUS-TBNA -- A Semi-Supervised Video Object Detection Method [0.0]
本研究は, 子宮内膜超音波(EBUS)を用いた肺病変のコンピュータ診断システムの構築を目的とする。
これまでの研究では、EBUS-TBNAへのオブジェクト検出モデルの適用が不足していた。
論文 参考訳(メタデータ) (2024-04-02T13:23:21Z) - Swin-Tempo: Temporal-Aware Lung Nodule Detection in CT Scans as Video
Sequences Using Swin Transformer-Enhanced UNet [2.7547288571938795]
本稿では、畳み込みニューラルネットワークと視覚変換器の長所を利用する革新的なモデルを提案する。
ビデオ中の物体検出にインスパイアされた各3次元CT画像をビデオとして扱い、個々のスライスをフレームとして、肺結節をオブジェクトとして扱い、時系列アプリケーションを可能にする。
論文 参考訳(メタデータ) (2023-10-05T07:48:55Z) - MedDiffusion: Boosting Health Risk Prediction via Diffusion-based Data
Augmentation [58.93221876843639]
本稿では,MedDiffusion という,エンドツーエンドの拡散に基づくリスク予測モデルを提案する。
トレーニング中に合成患者データを作成し、サンプルスペースを拡大することで、リスク予測性能を向上させる。
ステップワイズ・アテンション・メカニズムを用いて患者の来訪者間の隠れた関係を識別し、高品質なデータを生成する上で最も重要な情報をモデルが自動的に保持することを可能にする。
論文 参考訳(メタデータ) (2023-10-04T01:36:30Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Temporal Context Matters: Enhancing Single Image Prediction with Disease
Progression Representations [8.396615243014768]
本稿では,時間経過情報を活用した深層学習手法を提案する。
本手法では, 自己注意に基づく時間的畳み込みネットワーク(TCN)を用いて, 疾患の軌跡を最も反映した表現を学習する。
ビジョン変換器は、単点画像から特徴を抽出するために、自己教師型で事前訓練される。
論文 参考訳(メタデータ) (2022-03-02T22:11:07Z) - Variational Knowledge Distillation for Disease Classification in Chest
X-Rays [102.04931207504173]
我々は,X線に基づく疾患分類のための新しい確率的推論フレームワークである反復的知識蒸留(VKD)を提案する。
提案手法の有効性を,X線画像とEHRを用いた3つの公開ベンチマークデータセットに示す。
論文 参考訳(メタデータ) (2021-03-19T14:13:56Z) - An Interpretable Multiple-Instance Approach for the Detection of
referable Diabetic Retinopathy from Fundus Images [72.94446225783697]
基礎画像における参照糖尿病網膜症検出のための機械学習システムを提案する。
画像パッチから局所情報を抽出し,アテンション機構により効率的に組み合わせることで,高い分類精度を実現することができる。
我々は,現在入手可能な網膜画像データセットに対するアプローチを評価し,最先端の性能を示す。
論文 参考訳(メタデータ) (2021-03-02T13:14:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。