論文の概要: Vision-Language Models for Automated 3D PET/CT Report Generation
- arxiv url: http://arxiv.org/abs/2511.20145v1
- Date: Tue, 25 Nov 2025 10:07:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.398417
- Title: Vision-Language Models for Automated 3D PET/CT Report Generation
- Title(参考訳): 3次元PET/CT自動レポート生成のための視覚言語モデル
- Authors: Wenpei Jiao, Kun Shang, Hui Li, Ke Yan, Jiajin Zhang, Guangjie Yang, Lijuan Guo, Yan Wan, Xing Yang, Dakai Jin, Zhaoheng Xie,
- Abstract要約: 自己PET/CTレポート生成は, 臨床負荷軽減にますます重要である。
PETRG-3Dは、PETとCTのボリュームをエンコードし、スタイル適応プロンプトを組み込んだエンドツーエンドの3Dデュアルブランチフレームワークである。
PETRG-Score(PETRG-Score)は、悪性リンパ腫に特異的な評価プロトコルである。
- 参考スコア(独自算出の注目度): 13.781844347232079
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Positron emission tomography/computed tomography (PET/CT) is essential in oncology, yet the rapid expansion of scanners has outpaced the availability of trained specialists, making automated PET/CT report generation (PETRG) increasingly important for reducing clinical workload. Compared with structural imaging (e.g., X-ray, CT, and MRI), functional PET poses distinct challenges: metabolic patterns vary with tracer physiology, and whole-body 3D contextual information is required rather than local-region interpretation. To advance PETRG, we propose PETRG-3D, an end-to-end 3D dual-branch framework that separately encodes PET and CT volumes and incorporates style-adaptive prompts to mitigate inter-hospital variability in reporting practices. We construct PETRG-Lym, a multi-center lymphoma dataset collected from four hospitals (824 reports w/ 245,509 paired PET/CT slices), and construct AutoPET-RG-Lym, a publicly accessible PETRG benchmark derived from open imaging data but equipped with new expert-written, clinically validated reports (135 cases). To assess clinical utility, we introduce PETRG-Score, a lymphoma-specific evaluation protocol that jointly measures metabolic and structural findings across curated anatomical regions. Experiments show that PETRG-3D substantially outperforms existing methods on both natural language metrics (e.g., +31.49\% ROUGE-L) and clinical efficacy metrics (e.g., +8.18\% PET-All), highlighting the benefits of volumetric dual-modality modeling and style-aware prompting. Overall, this work establishes a foundation for future PET/CT-specific models emphasizing disease-aware reasoning and clinically reliable evaluation. Codes, models, and AutoPET-RG-Lym will be released.
- Abstract(参考訳): PET/CT(Positron emission tomography/computed tomography)は腫瘍学において必須であるが、スキャナーの急速な拡張は、臨床負荷を減らすためにPET/CTレポートの自動生成(PETRG)をますます重要にしている。
構造画像(例えば、X線、CT、MRI)と比較すると、機能的PETは異なる課題を生じている:代謝パターンはトレーサーの生理と異なり、局所的な解釈よりも全身の3Dコンテキスト情報が必要である。
PETRGを前進させるためにPETRG-3Dを提案する。PETとCTのボリュームを別途エンコードし,そのスタイル適応的なプロンプトを取り入れた,終末から終末までの3Dデュアルブランチフレームワークである。
PETRG-Lymは,4つの病院から収集した多施設の悪性リンパ腫データセット (824レポートw/245,509ペアPET/CTスライス) を構築し,オープンイメージングデータから得られた公開アクセス型PETRGベンチマークであるAutoPET-RG-Lymを構築した。
臨床的有用性を評価するため,悪性リンパ腫特異的評価プロトコルPETRG-Scoreを導入する。
実験の結果、PETRG-3Dは、自然言語の指標(例: +31.49\% ROUGE-L)と臨床効果指標(例: +8.18\% PET-All)の両方において既存の手法よりも大幅に優れており、容積二重モードモデリングとスタイル認識プロンプトの利点を強調している。
本研究は, 疾患認識推論と臨床的に信頼性の高い評価を重視したPET/CT特異的モデルの基礎を築いた。
コード、モデル、AutoPET-RG-Lymがリリースされる。
関連論文リスト
- PETAR: Localized Findings Generation with Mask-Aware Vision-Language Modeling for PET Automated Reporting [10.800541081358132]
5,000点以上のPET/CT検診から3Dセグメンテーションと組み合わせた11,000点以上の病変レベル記述からなる大規模データセットを提案する。
本データセットに基づいて,PET,CT,病変輪郭を統合した3次元マスク対応視覚言語モデルPETAR-4Bを提案する。
論文 参考訳(メタデータ) (2025-10-31T17:49:01Z) - TauGenNet: Plasma-Driven Tau PET Image Synthesis via Text-Guided 3D Diffusion Models [6.674230585698143]
構造MRIとプラズマ計測の両方から多モード条件を利用する3次元タウPET画像合成のためのテキスト誘導3次元拡散モデルを提案する。
臨床的に意義のある3DタウPETを, 様々な病期にわたって生成できることが実験的に証明された。
論文 参考訳(メタデータ) (2025-09-04T14:45:50Z) - Supervised Diffusion-Model-Based PET Image Reconstruction [44.89560992517543]
PET画像再構成の前兆として拡散モデル (DM) が導入された。
PET再構成のための教師付きDMベースアルゴリズムを提案する。
本手法はPETのポアソン確率モデルの非負性性を強制し,PET画像の広い範囲に適応する。
論文 参考訳(メタデータ) (2025-06-30T16:39:50Z) - Personalized MR-Informed Diffusion Models for 3D PET Image Reconstruction [40.722159771726375]
本稿では,PET-MR スキャンのデータセットから対象特異的なPET画像を生成するための簡易な手法を提案する。
私たちが合成した画像は、被験者のMRスキャンからの情報を保持し、高分解能と解剖学的特徴の保持につながる。
18ドルF]FDGデータセットのシミュレーションと実データを用いて,対象特異的な「擬似PET」画像を用いたパーソナライズされた拡散モデルの事前学習により,低カウントデータによる再構成精度が向上することを示す。
論文 参考訳(メタデータ) (2025-06-04T10:24:14Z) - Developing a PET/CT Foundation Model for Cross-Modal Anatomical and Functional Imaging [39.59895695500171]
FratMAE(Cross-Fraternal Twin Masked Autoencoder)は,全身解剖学的および機能的情報を効果的に統合する新しいフレームワークである。
FratMAEは複雑なクロスモーダル関係とグローバルな取り込みパターンをキャプチャし、下流タスクにおいて優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-03-04T17:49:07Z) - End-to-end Triple-domain PET Enhancement: A Hybrid Denoising-and-reconstruction Framework for Reconstructing Standard-dose PET Images from Low-dose PET Sinograms [43.13562515963306]
低線量PETシングラムから標準線量PET画像の再構成を行うために,TripleTフレームワークを提案する。
提案したTriPLETは,最先端の手法と比較して,SPET画像と実データとの類似性と信号対雑音比が最も高い再構成を行うことができる。
論文 参考訳(メタデータ) (2024-12-04T14:47:27Z) - 3D-CT-GPT: Generating 3D Radiology Reports through Integration of Large Vision-Language Models [51.855377054763345]
本稿では,VQAに基づく医用視覚言語モデルである3D-CT-GPTについて紹介する。
パブリックデータセットとプライベートデータセットの両方の実験により、3D-CT-GPTはレポートの正確さと品質という点で既存の手法を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2024-09-28T12:31:07Z) - Autopet III challenge: Incorporating anatomical knowledge into nnUNet for lesion segmentation in PET/CT [4.376648893167674]
AutoPET III ChallengeはPET/CT画像における腫瘍病変の自動切除の進歩に焦点を当てている。
我々は,PETスキャンの最大強度投影に基づいて,与えられたPET/CTのトレーサを識別する分類器を開発した。
我々の最終提出書は、公開可能なFDGおよびPSMAデータセットに対して76.90%と61.33%のクロスバリデーションDiceスコアを達成している。
論文 参考訳(メタデータ) (2024-09-18T17:16:57Z) - From FDG to PSMA: A Hitchhiker's Guide to Multitracer, Multicenter Lesion Segmentation in PET/CT Imaging [0.9384264274298444]
本稿では,ResEncL アーキテクチャを用いた nnU-Net フレームワークを用いたマルチトラス,マルチセンタの一般化を目的とした AutoPET III チャレンジの解決策を提案する。
主なテクニックは、CT、MR、PETデータセット間での誤調整データ拡張とマルチモーダル事前トレーニングである。
Diceスコアが57.61となったデフォルトのnnU-Netと比較して、Diceスコアが68.40であり、偽陽性(FPvol: 7.82)と偽陰性(FNvol: 10.35)が減少している。
論文 参考訳(メタデータ) (2024-09-14T16:39:17Z) - Contrastive Diffusion Model with Auxiliary Guidance for Coarse-to-Fine
PET Reconstruction [62.29541106695824]
本稿では, 粗い予測モジュール (CPM) と反復的修正モジュール (IRM) から構成される粗大なPET再構成フレームワークを提案する。
計算オーバーヘッドの大部分をCPMに委譲することで,本手法のサンプリング速度を大幅に向上させることができる。
2つの追加戦略、すなわち補助的な誘導戦略と対照的な拡散戦略が提案され、再構築プロセスに統合される。
論文 参考訳(メタデータ) (2023-08-20T04:10:36Z) - Exploring Vanilla U-Net for Lesion Segmentation from Whole-body
FDG-PET/CT Scans [16.93163630413171]
FDG-PETスキャンは代謝情報のみを提供するため、不規則なグルコース消費を伴う健康な組織や良性疾患はがんと誤認される可能性がある。
本稿では,ネットワークアーキテクチャ,データ前処理,データ拡張という3つの側面から,全身FDG-PET/CTスキャンにおける病変分割のためのU-Netの可能性について検討する。
本手法は, AutoPET 2022 チャレンジの予備的, 最終的リーダボードにおいて第1位となる。
論文 参考訳(メタデータ) (2022-10-14T03:37:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。