論文の概要: A Generalist Foundation Model for Total-body PET/CT Enables Diagnostic Reporting and System-wide Metabolic Profiling
- arxiv url: http://arxiv.org/abs/2601.12820v1
- Date: Mon, 19 Jan 2026 08:30:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.808519
- Title: A Generalist Foundation Model for Total-body PET/CT Enables Diagnostic Reporting and System-wide Metabolic Profiling
- Title(参考訳): 全身PET/CTの一般基礎モデルによる診断報告と全身代謝プロファイリング
- Authors: Wei Chen, Liang Wu, Shuyi Lu, Yuanyuan Sun, Wenkai Bi, Zilong Yuan, Yaoyao He, Feng Wang, Junchi Ma, Shuyong Liu, Zhaoping Cheng, Xiaoyan Hu, Jianfeng Qiu,
- Abstract要約: SDF-HOLOは全身PET/CTのマルチモーダル基礎モデルであり,1万人以上の患者を対象に事前トレーニングを行った。
二重ストリームエンコーダでCTとPETの表現学習を分離し、相互モードの相互作用モジュールを介してそれらを結合する。
このモデルは、システム全体の代謝プロファイルを可能にし、組織間の代謝ネットワーク相互作用の腫瘍関連指紋を明らかにする。
- 参考スコア(独自算出の注目度): 17.709593152803695
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Total-body PET/CT enables system-wide molecular imaging, but heterogeneous anatomical and metabolic signals, approximately 2 m axial coverage, and structured radiology semantics challenge existing medical AI models that assume single-modality inputs, localized fields of view, and coarse image-text alignment. We introduce SDF-HOLO (Systemic Dual-stream Fusion Holo Model), a multimodal foundation model for holistic total-body PET/CT, pre-trained on more than 10,000 patients. SDF-HOLO decouples CT and PET representation learning with dual-stream encoders and couples them through a cross-modal interaction module, allowing anatomical context to refine PET aggregation while metabolic saliency guides subtle morphological reasoning. To model long-range dependencies across the body, hierarchical context modeling combines efficient local windows with global attention. To bridge voxels and clinical language, we use anatomical segmentation masks as explicit semantic anchors and perform voxel-mask-text alignment during pre-training. Across tumor segmentation, low-dose lesion detection, and multilingual diagnostic report generation, SDF-HOLO outperforms strong task-specific and clinical-reference baselines while reducing localization errors and hallucinated findings. Beyond focal interpretation, the model enables system-wide metabolic profiling and reveals tumor-associated fingerprints of inter-organ metabolic network interactions, providing a scalable computational foundation for total-body PET/CT diagnostics and system-level precision oncology.
- Abstract(参考訳): 全身PET/CTは、システム全体にわたる分子イメージングを可能にするが、異質な解剖学的および代謝的な信号、約2m軸のカバレッジ、構造的放射線学のセマンティクスは、単一のモダリティ入力、局所的な視野、粗い画像テキストアライメントを仮定する既存の医療AIモデルに挑戦する。
SDF-HOLO(Systemic Dual-stream Fusion Holo Model)は全身PET/CTのための多モード基盤モデルであり,1万人以上の患者を対象に事前トレーニングを行った。
SDF-HOLOは、CTとPETの表現学習を二重ストリームエンコーダで分離し、それらを相互に相互作用するモジュールを通して結合することで、代謝塩分濃度が微妙な形態的推論を導いながら、PETの集合を洗練させる。
身体全体にわたる長距離依存関係をモデル化するために、階層型コンテキストモデリングは効率的なローカルウィンドウとグローバルアテンションを組み合わせる。
ボクセルと臨床言語を橋渡しするために,解剖学的セグメンテーションマスクを明示的な意味アンカーとして使用し,プレトレーニング中にボクセル・マスク・テキストアライメントを行う。
腫瘍のセグメンテーション,低用量病変検出,多言語診断報告生成において,SDF-HOLOは,局所化誤差と幻覚所見を減少させながら,強いタスク特異的および臨床参照ベースラインを上回った。
局所的解釈の他に、このモデルはシステム全体の代謝プロファイルを可能にし、組織間代謝ネットワーク相互作用の腫瘍関連指紋を明らかにし、全身PET/CT診断とシステムレベルの精度オンコロジーのためのスケーラブルな計算基盤を提供する。
関連論文リスト
- A Semantically Enhanced Generative Foundation Model Improves Pathological Image Synthesis [82.01597026329158]
本稿では,組織合成のための相関調整フレームワーク(CRAFTS)について紹介する。
CRAFTSは、生物学的精度を確保するためにセマンティックドリフトを抑制する新しいアライメント機構を組み込んでいる。
本モデルは,30種類の癌にまたがる多彩な病理像を生成する。
論文 参考訳(メタデータ) (2025-12-15T10:22:43Z) - Vision-Language Models for Automated 3D PET/CT Report Generation [13.781844347232079]
自己PET/CTレポート生成は, 臨床負荷軽減にますます重要である。
PETRG-3Dは、PETとCTのボリュームをエンコードし、スタイル適応プロンプトを組み込んだエンドツーエンドの3Dデュアルブランチフレームワークである。
PETRG-Score(PETRG-Score)は、悪性リンパ腫に特異的な評価プロトコルである。
論文 参考訳(メタデータ) (2025-11-25T10:07:57Z) - FoundDiff: Foundational Diffusion Model for Generalizable Low-Dose CT Denoising [55.04342933312839]
本稿では,CT(低線量CT)デノナイズのための基礎拡散モデルFoundDiffを提案する。
FoundDiffは、(i)線量解剖学的知覚と(ii)適応的認知という2段階の戦略を採用している。
まず, 線量および解剖学的知覚を実現するために, 線量および解剖学的対応型コントラスト言語画像事前訓練モデル(DA-CLIP)を開発した。
第2に,適応的および一般化可能な復調を行うために,線量および解剖学的拡散モデル(DA-Diff)を設計する。
論文 参考訳(メタデータ) (2025-08-24T11:03:56Z) - RadFabric: Agentic AI System with Reasoning Capability for Radiology [61.25593938175618]
RadFabricは、総合的なCXR解釈のための視覚的およびテキスト分析を統合するマルチエージェント、マルチモーダル推論フレームワークである。
システムは、病理診断に特殊なCXRエージェント、正確な解剖学的構造に視覚所見をマッピングする解剖学的解釈エージェント、および視覚的、解剖学的、臨床データを透明かつ証拠に基づく診断に合成する大規模なマルチモーダル推論モデルを利用した推論エージェントを使用する。
論文 参考訳(メタデータ) (2025-06-17T03:10:33Z) - CodeBrain: Towards Decoupled Interpretability and Multi-Scale Architecture for EEG Foundation Model [52.466542039411515]
EEGファウンデーションモデル(EFM)は、タスク固有のモデルのスケーラビリティ問題に対処するために登場した。
このギャップを埋めるために設計された2段階のEMFであるCodeBrainを紹介します。
第1段階では、異種時間・周波数の脳波信号を離散トークンに分解するTFDual-Tokenizerを導入する。
第2段階では、構造化されたグローバル畳み込みとスライディングウインドウの注意を結合したマルチスケールEEGSSMアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-06-10T17:20:39Z) - Developing a PET/CT Foundation Model for Cross-Modal Anatomical and Functional Imaging [39.59895695500171]
FratMAE(Cross-Fraternal Twin Masked Autoencoder)は,全身解剖学的および機能的情報を効果的に統合する新しいフレームワークである。
FratMAEは複雑なクロスモーダル関係とグローバルな取り込みパターンをキャプチャし、下流タスクにおいて優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-03-04T17:49:07Z) - H2ASeg: Hierarchical Adaptive Interaction and Weighting Network for Tumor Segmentation in PET/CT Images [6.753315684414596]
PET(Positron emission tomography)とCT(Computed tomography)の併用は、がんの診断や予後に日常的に用いられている。
従来のマルチモーダルセグメンテーションソリューションは、モダリティ融合の連結演算に依存している。
本稿では,H2ASeg と呼ばれる階層型適応的相互作用と重み付けネットワークを提案する。
論文 参考訳(メタデータ) (2024-03-27T08:28:14Z) - G-MIND: An End-to-End Multimodal Imaging-Genetics Framework for
Biomarker Identification and Disease Classification [49.53651166356737]
診断によって誘導される画像データと遺伝データを統合し、解釈可能なバイオマーカーを提供する新しいディープニューラルネットワークアーキテクチャを提案する。
2つの機能的MRI(fMRI)パラダイムとSingle Nucleotide Polymorphism (SNP)データを含む統合失調症の集団研究で本モデルを評価した。
論文 参考訳(メタデータ) (2021-01-27T19:28:04Z) - Multimodal Spatial Attention Module for Targeting Multimodal PET-CT Lung
Tumor Segmentation [11.622615048002567]
マルチモーダル空間アテンションモジュール(MSAM)は腫瘍に関連する領域を強調することを学ぶ。
MSAMは一般的なバックボーンアーキテクチャやトレーニングされたエンドツーエンドに適用できる。
論文 参考訳(メタデータ) (2020-07-29T10:27:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。