論文の概要: Time-to-Event Pretraining for 3D Medical Imaging
- arxiv url: http://arxiv.org/abs/2411.09361v2
- Date: Wed, 19 Mar 2025 07:33:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-20 15:20:51.888542
- Title: Time-to-Event Pretraining for 3D Medical Imaging
- Title(参考訳): 3次元医用イメージングのための時間とイベントの事前トレーニング
- Authors: Zepeng Huo, Jason Alan Fries, Alejandro Lozano, Jeya Maria Jose Valanarasu, Ethan Steinberg, Louis Blankemeier, Akshay S. Chaudhari, Curtis Langlotz, Nigam H. Shah,
- Abstract要約: 本稿では,3次元医用画像モデルのための事前トレーニングフレームワークである,時間とイベントの事前トレーニングを紹介する。
我々は18,945個のCTスキャン(420万枚の2D画像)のデータセットと、何千ものEHR由来のタスクにまたがる時間-時間分布を用いています。
提案手法は,AUROCの平均値が23.7%,HarrellのC-インデックスが29.4%向上し,結果予測が向上する。
- 参考スコア(独自算出の注目度): 44.46415168541444
- License:
- Abstract: With the rise of medical foundation models and the growing availability of imaging data, scalable pretraining techniques offer a promising way to identify imaging biomarkers predictive of future disease risk. While current self-supervised methods for 3D medical imaging models capture local structural features like organ morphology, they fail to link pixel biomarkers with long-term health outcomes due to a missing context problem. Current approaches lack the temporal context necessary to identify biomarkers correlated with disease progression, as they rely on supervision derived only from images and concurrent text descriptions. To address this, we introduce time-to-event pretraining, a pretraining framework for 3D medical imaging models that leverages large-scale temporal supervision from paired, longitudinal electronic health records (EHRs). Using a dataset of 18,945 CT scans (4.2 million 2D images) and time-to-event distributions across thousands of EHR-derived tasks, our method improves outcome prediction, achieving an average AUROC increase of 23.7% and a 29.4% gain in Harrell's C-index across 8 benchmark tasks. Importantly, these gains are achieved without sacrificing diagnostic classification performance. This study lays the foundation for integrating longitudinal EHR and 3D imaging data to advance clinical risk prediction.
- Abstract(参考訳): 医療基盤モデルの台頭と画像データの可用性の向上により、スケーラブルな事前訓練技術は、将来の病気のリスクを予測する画像バイオマーカーを識別する有望な方法を提供する。
現在の3D医療画像モデルのための自己監督的手法は、臓器形態などの局所的な構造的特徴を捉えているが、文脈の問題のため、ピクセルバイオマーカーと長期的な健康上の結果の関連付けに失敗している。
現在のアプローチでは、画像と同時テキスト記述のみから導かれる監督に頼っているため、病気の進行と相関するバイオマーカーを特定するのに必要な時間的文脈が欠如している。
そこで本研究では,2対の縦型電子健康記録(EHR)から大規模な時間的監督を生かした3次元医用画像モデルの事前訓練フレームワークである,時間とイベントの事前トレーニングを導入する。
18,945個のCTスキャン(4.2百万枚の2D画像)と何千ものEHR由来のタスクにまたがる時間-時間分布のデータセットを用いて、AUROCの平均は23.7%、HarrellのC-indexは29.4%向上した。
重要なことに、これらの利得は診断分類性能を犠牲にすることなく達成される。
本研究は, 臨床リスク予測を推し進めるために, 経時的EHRと3次元画像データの統合の基礎を定めている。
関連論文リスト
- Brain Latent Progression: Individual-based Spatiotemporal Disease Progression on 3D Brain MRIs via Latent Diffusion [2.7853513988338108]
進行脳潜時モデル(BrLP)は3次元脳MRIで個々の疾患レベルの進行を予測するように設計されている。
BrLPを2,805例のT1強調(T1w)脳MRIで訓練し,962例の2,257例の外部MRIでその一般化性を検証した。
論文 参考訳(メタデータ) (2025-02-12T16:47:41Z) - Trustworthy image-to-image translation: evaluating uncertainty calibration in unpaired training scenarios [0.0]
マンモグラフィスクリーニングは乳がんの検出に有効な方法であり、早期診断を容易にする。
ディープニューラルネットワークはいくつかの研究で有効であることが示されているが、その傾向は一般化と誤診のリスクをかなり残している。
汎用性を向上させるために、未ペア型ニューラルスタイル転送モデルに基づくデータ拡張スキームが提案されている。
3つのオープンアクセスマンモグラフィーデータセットと1つの非医療画像データセットから解析した画像パッチを用いて、それらの性能を評価する。
論文 参考訳(メタデータ) (2025-01-29T11:09:50Z) - A CNN-Transformer for Classification of Longitudinal 3D MRI Images -- A Case Study on Hepatocellular Carcinoma Prediction [0.0]
HCCNetは、ConvNeXt CNNアーキテクチャの3D適応とTransformerエンコーダを統合する新しいモデルアーキテクチャである。
その結果,HCCNetはベースラインモデルよりも予測精度と信頼性を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2025-01-18T11:39:46Z) - Latent Drifting in Diffusion Models for Counterfactual Medical Image Synthesis [55.959002385347645]
大規模なデータセットのトレーニングによるスケーリングは、画像生成の品質と忠実度を高め、拡散モデルによる操作を可能にすることが示されている。
遅延ドリフトにより、医療画像に対して拡散モデルを条件付けし、反ファクト画像生成の複雑なタスクに適合させることができる。
本研究は,異なる微調整方式と組み合わせた場合,様々なシナリオにおいて顕著な性能向上を示すものである。
論文 参考訳(メタデータ) (2024-12-30T01:59:34Z) - Multi-task Learning Approach for Intracranial Hemorrhage Prognosis [0.0]
本稿では,Glasgow Coma Scale と Age の3次元マルチタスク画像モデルを提案する。
提案手法は現状のベースライン画像モデルより優れており,CTスキャンのみを入力として用いた4名の脳神経科医と比較してICH予後に優れていた。
論文 参考訳(メタデータ) (2024-08-16T14:56:17Z) - Harnessing the power of longitudinal medical imaging for eye disease prognosis using Transformer-based sequence modeling [49.52787013516891]
今回提案した Longitudinal Transformer for Survival Analysis (LTSA, Longitudinal Transformer for Survival Analysis, LTSA) は, 縦断的医用画像から動的疾患の予後を予測できる。
時間的注意分析により、最新の画像は典型的には最も影響力のあるものであるが、以前の画像は追加の予後に価値があることが示唆された。
論文 参考訳(メタデータ) (2024-05-14T17:15:28Z) - Towards Enhanced Analysis of Lung Cancer Lesions in EBUS-TBNA -- A Semi-Supervised Video Object Detection Method [0.0]
本研究は, 子宮内膜超音波(EBUS)を用いた肺病変のコンピュータ診断システムの構築を目的とする。
これまでの研究では、EBUS-TBNAへのオブジェクト検出モデルの適用が不足していた。
論文 参考訳(メタデータ) (2024-04-02T13:23:21Z) - MedDiffusion: Boosting Health Risk Prediction via Diffusion-based Data
Augmentation [58.93221876843639]
本稿では,MedDiffusion という,エンドツーエンドの拡散に基づくリスク予測モデルを提案する。
トレーニング中に合成患者データを作成し、サンプルスペースを拡大することで、リスク予測性能を向上させる。
ステップワイズ・アテンション・メカニズムを用いて患者の来訪者間の隠れた関係を識別し、高品質なデータを生成する上で最も重要な情報をモデルが自動的に保持することを可能にする。
論文 参考訳(メタデータ) (2023-10-04T01:36:30Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Variational Knowledge Distillation for Disease Classification in Chest
X-Rays [102.04931207504173]
我々は,X線に基づく疾患分類のための新しい確率的推論フレームワークである反復的知識蒸留(VKD)を提案する。
提案手法の有効性を,X線画像とEHRを用いた3つの公開ベンチマークデータセットに示す。
論文 参考訳(メタデータ) (2021-03-19T14:13:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。