論文の概要: Developing a PET/CT Foundation Model for Cross-Modal Anatomical and Functional Imaging
- arxiv url: http://arxiv.org/abs/2503.02824v1
- Date: Tue, 04 Mar 2025 17:49:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:23:26.783180
- Title: Developing a PET/CT Foundation Model for Cross-Modal Anatomical and Functional Imaging
- Title(参考訳): PET/CTファンデーションモデルの開発
- Authors: Yujin Oh, Robert Seifert, Yihan Cao, Christoph Clement, Justin Ferdinandus, Constantin Lapa, Alessandro Liebich, Michelle Amon, Johanna Enke, Sifan Song, Runqi Meng, Fang Zeng, Ning Guo, Xiang Li, Pedram Heidari, Axel Rominger, Kuangyu Shi, Quanzheng Li,
- Abstract要約: FratMAE(Cross-Fraternal Twin Masked Autoencoder)は,全身解剖学的および機能的情報を効果的に統合する新しいフレームワークである。
FratMAEは複雑なクロスモーダル関係とグローバルな取り込みパターンをキャプチャし、下流タスクにおいて優れたパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 39.59895695500171
- License:
- Abstract: In oncology, Positron Emission Tomography-Computed Tomography (PET/CT) is widely used in cancer diagnosis, staging, and treatment monitoring, as it combines anatomical details from CT with functional metabolic activity and molecular marker expression information from PET. However, existing artificial intelligence-driven PET/CT analyses rely predominantly on task-specific models trained from scratch or on limited datasets, limiting their generalizability and robustness. To address this, we propose a foundation model approach specifically designed for multimodal PET/CT imaging. We introduce the Cross-Fraternal Twin Masked Autoencoder (FratMAE), a novel framework that effectively integrates whole-body anatomical and functional or molecular information. FratMAE employs separate Vision Transformer (ViT) encoders for PET and CT scans, along with cross-attention decoders that enable synergistic interactions between modalities during masked autoencoder training. Additionally, it incorporates textual metadata to enhance PET representation learning. By pre-training on PET/CT datasets, FratMAE captures intricate cross-modal relationships and global uptake patterns, achieving superior performance on downstream tasks and demonstrating its potential as a generalizable foundation model.
- Abstract(参考訳): 腫瘍学において、PET/CT(Positron Emission Tomography-Computed Tomography)は、CTの解剖学的詳細と機能的代謝活性とPETの分子マーカー発現情報を組み合わせることにより、がん診断、ステージング、治療監視に広く用いられている。
しかし、既存の人工知能駆動PET/CT分析は、スクラッチからトレーニングされたタスク固有のモデルや限られたデータセットに依存し、その一般化性と堅牢性を制限する。
そこで本研究では,マルチモーダルPET/CTイメージングのための基礎モデルアプローチを提案する。
FratMAE(Cross-Fraternal Twin Masked Autoencoder)は,全身の解剖学的・機能的・分子的情報を効果的に統合する新しいフレームワークである。
FratMAEはPETとCTスキャン用のViTエンコーダと、マスク付きオートエンコーダトレーニング中にモダリティ間の相乗的相互作用を可能にするクロスアテンションデコーダを別々に採用している。
さらに、PET表現学習を強化するためにテキストメタデータも組み込まれている。
PET/CTデータセットの事前トレーニングにより、FlatMAEは複雑なクロスモーダルな関係とグローバルな取り込みパターンをキャプチャし、下流タスクでの優れたパフォーマンスを実現し、一般化可能な基礎モデルとしての可能性を示す。
関連論文リスト
- CT to PET Translation: A Large-scale Dataset and Domain-Knowledge-Guided Diffusion Approach [4.4202829112545015]
PET(Positron Emission Tomography)とCT(Computed Tomography)は、様々な疾患、特にがんの診断、ステージング、モニタリングに不可欠である。
その重要性にもかかわらず、PET/CTシステムの使用は、放射性物質の必要性、PETスキャナーの不足、PETイメージングに関連する高コストによって制限されている。
これらの課題に対して,CT画像からPET画像を生成するという課題に対処し,医療検査コストと患者の健康リスクの両面で低減することを目的とした。
論文 参考訳(メタデータ) (2024-10-29T10:48:52Z) - From FDG to PSMA: A Hitchhiker's Guide to Multitracer, Multicenter Lesion Segmentation in PET/CT Imaging [0.9384264274298444]
本稿では,ResEncL アーキテクチャを用いた nnU-Net フレームワークを用いたマルチトラス,マルチセンタの一般化を目的とした AutoPET III チャレンジの解決策を提案する。
主なテクニックは、CT、MR、PETデータセット間での誤調整データ拡張とマルチモーダル事前トレーニングである。
Diceスコアが57.61となったデフォルトのnnU-Netと比較して、Diceスコアが68.40であり、偽陽性(FPvol: 7.82)と偽陰性(FNvol: 10.35)が減少している。
論文 参考訳(メタデータ) (2024-09-14T16:39:17Z) - AutoPET Challenge: Tumour Synthesis for Data Augmentation [26.236831356731017]
我々は,CT画像のためのDiffTumor法を適用し,病変のあるPET-CT画像を生成する。
提案手法では,AutoPETデータセット上で生成モデルをトレーニングし,トレーニングデータの拡張に使用する。
以上の結果から,拡張データセットでトレーニングしたモデルでは,Diceスコアが向上し,データ拡張アプローチの可能性が示された。
論文 参考訳(メタデータ) (2024-09-12T14:23:19Z) - RadGenome-Chest CT: A Grounded Vision-Language Dataset for Chest CT Analysis [56.57177181778517]
RadGenome-Chest CTはCT-RATEに基づく大規模3次元胸部CT解釈データセットである。
私たちは、最新の強力なユニバーサルセグメンテーションと大きな言語モデルを活用して、元のデータセットを拡張します。
論文 参考訳(メタデータ) (2024-04-25T17:11:37Z) - Revolutionizing Disease Diagnosis with simultaneous functional PET/MR and Deeply Integrated Brain Metabolic, Hemodynamic, and Perfusion Networks [40.986069119392944]
マルチモーダルなMiXture-of-expertsアライメント再構成とモデルであるMX-ARMを提案する。
モダリティは分離可能で交換可能であり、異なる多層パーセプトロン(「専門家の混合」)を学習可能な重みを通して動的に割り当て、異なるモダリティからそれぞれの表現を学ぶ。
論文 参考訳(メタデータ) (2024-03-29T08:47:49Z) - Contrastive Diffusion Model with Auxiliary Guidance for Coarse-to-Fine
PET Reconstruction [62.29541106695824]
本稿では, 粗い予測モジュール (CPM) と反復的修正モジュール (IRM) から構成される粗大なPET再構成フレームワークを提案する。
計算オーバーヘッドの大部分をCPMに委譲することで,本手法のサンプリング速度を大幅に向上させることができる。
2つの追加戦略、すなわち補助的な誘導戦略と対照的な拡散戦略が提案され、再構築プロセスに統合される。
論文 参考訳(メタデータ) (2023-08-20T04:10:36Z) - Orientation-Shared Convolution Representation for CT Metal Artifact
Learning [63.67718355820655]
X線CT(CT)スキャン中、患者を乗せた金属インプラントは、しばしば有害なアーティファクトに繋がる。
既存のディープラーニングベースの手法は、有望な再構築性能を得た。
本稿では,人工物の物理的事前構造に適応するために,配向型畳み込み表現戦略を提案する。
論文 参考訳(メタデータ) (2022-12-26T13:56:12Z) - Incremental Cross-view Mutual Distillation for Self-supervised Medical
CT Synthesis [88.39466012709205]
本稿では,スライス間の分解能を高めるために,新しい医療スライスを構築した。
臨床実践において, 根本・中間医療スライスは常に欠落していることを考慮し, 相互蒸留の段階的相互蒸留戦略を導入する。
提案手法は,最先端のアルゴリズムよりも明確なマージンで優れる。
論文 参考訳(メタデータ) (2021-12-20T03:38:37Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z) - Multimodal Spatial Attention Module for Targeting Multimodal PET-CT Lung
Tumor Segmentation [11.622615048002567]
マルチモーダル空間アテンションモジュール(MSAM)は腫瘍に関連する領域を強調することを学ぶ。
MSAMは一般的なバックボーンアーキテクチャやトレーニングされたエンドツーエンドに適用できる。
論文 参考訳(メタデータ) (2020-07-29T10:27:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。