論文の概要: PET-F2I: A Comprehensive Benchmark and Parameter-Efficient Fine-Tuning of LLMs for PET/CT Report Impression Generation
- arxiv url: http://arxiv.org/abs/2603.10560v1
- Date: Wed, 11 Mar 2026 09:08:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.865999
- Title: PET-F2I: A Comprehensive Benchmark and Parameter-Efficient Fine-Tuning of LLMs for PET/CT Report Impression Generation
- Title(参考訳): PET-F2I:PET/CTレポート印象生成のためのLCMの総合的ベンチマークとパラメータ効率的な微調整
- Authors: Yuchen Liu, Wenbo Zhang, Liling Peng, Yichi Zhang, Yu Fu, Xin Guo, Chao Qu, Yuan Qi, Le Xue,
- Abstract要約: LLMを用いたPET/CT印象生成のための大規模ベンチマークであるPET-F2I-41K(PET Findings-to-Impression Benchmark)を紹介する。
PET-F2I-41K を用いて,プロプライエタリなフロンティア LLM,オープンソースジェネラリストモデル,医療ドメイン LLM にまたがる27モデルの総合的な評価を行う。
PET-F2I-7Bは、最強のベースラインよりも大幅に向上し、エンティティカバレッジが3.0倍向上する。
- 参考スコア(独自算出の注目度): 25.57267405761328
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: PET/CT imaging is pivotal in oncology and nuclear medicine, yet summarizing complex findings into precise diagnostic impressions is labor-intensive. While LLMs have shown promise in medical text generation, their capability in the highly specialized domain of PET/CT remains underexplored. We introduce PET-F2I-41K (PET Findings-to-Impression Benchmark), a large-scale benchmark for PET/CT impression generation using LLMs, constructed from over 41k real-world reports. Using PET-F2I-41K, we conduct a comprehensive evaluation of 27 models across proprietary frontier LLMs, open-source generalist models, and medical-domain LLMs, and we develop a domain-adapted 7B model (PET-F2I-7B) fine-tuned from Qwen2.5-7B-Instruct via LoRA. Beyond standard NLG metrics (e.g., BLEU-4, ROUGE-L, BERTScore), we propose three clinically grounded metrics - Entity Coverage Rate (ECR), Uncovered Entity Rate (UER), and Factual Consistency Rate (FCR) - to assess diagnostic completeness and factual reliability. Experiments reveal that neither frontier nor medical-domain LLMs perform adequately in zero-shot settings. In contrast, PET-F2I-7B achieves substantial gains (e.g., 0.708 BLEU-4) and a 3.0x improvement in entity coverage over the strongest baseline, while offering advantages in cost, latency, and privacy. Beyond this modeling contribution, PET-F2I-41K establishes a standardized evaluation framework to accelerate the development of reliable and clinically deployable reporting systems for PET/CT.
- Abstract(参考訳): PET/CT画像は腫瘍学や核医学において重要であるが、複雑な所見を正確な診断印象に要約することは労働集約的である。
LLMは医療用テキスト生成において有望であることを示しているが、PET/CTの高度に専門化された領域におけるそれらの能力はいまだ探索されていない。
LLMを用いたPET/CT印象生成のための大規模ベンチマークPET-F2I-41K(PET Findings-to-Impression Benchmark)を導入する。
PET-F2I-41K を用いて,プロプライエタリなフロンティア LLM ,オープンソースジェネリストモデル,医療ドメイン LLM にまたがる27種類のモデルを包括的に評価し,Qwen2.5-7B-Instruct から LoRA を介してドメイン適応 7B モデル (PET-F2I-7B) を開発した。
標準的なNLG指標(例えばBLEU-4、ROUGE-L、BERTScore)以外にも、診断完全性と事実信頼性を評価するために、Entity Coverage Rate(ECR)、Uncovered Entity Rate(UER)、Factual Consistency Rate(FCR)の3つの臨床基盤尺度を提案する。
実験により、フロンティアも医療ドメインLLMもゼロショット設定では適切に動作しないことが明らかとなった。
対照的にPET-F2I-7Bは、コスト、レイテンシ、プライバシのアドバンテージを提供しながら、最大のベースラインよりも大幅に向上(例:0.708 BLEU-4)し、エンティティカバレッジが3.0倍向上した。
このモデリング貢献に加えて、PET-F2I-41KはPET/CTのための信頼性が高く、臨床的にデプロイ可能なレポーティングシステムの開発を促進するための標準化された評価フレームワークを確立している。
関連論文リスト
- Unveiling and Bridging the Functional Perception Gap in MLLMs: Atomic Visual Alignment and Hierarchical Evaluation via PET-Bench [48.60251555171943]
MLLM(Multimodal Large Language Models)は、異常検出や解剖学的モダリティのレポート生成などのタスクにおいて、顕著な熟練性を示した。
本研究では, 機能的トレーサの生体分布を, 形態的先行性とは無関係に復号化できない現状の視覚エンコーダについて, 基本的な機能的知覚ギャップを定量化する。
PET-Benchは52,308個の階層型QAペアからなるPET-Benchの最初の大規模機能評価ベンチマークである。
AVAは認知ギャップを効果的に橋渡しし、CoTを幻覚源から頑健な推論ツールに変換し、診断を改善していることを示す。
論文 参考訳(メタデータ) (2026-01-06T05:58:50Z) - Vision-Language Models for Automated 3D PET/CT Report Generation [13.781844347232079]
自己PET/CTレポート生成は, 臨床負荷軽減にますます重要である。
PETRG-3Dは、PETとCTのボリュームをエンコードし、スタイル適応プロンプトを組み込んだエンドツーエンドの3Dデュアルブランチフレームワークである。
PETRG-Score(PETRG-Score)は、悪性リンパ腫に特異的な評価プロトコルである。
論文 参考訳(メタデータ) (2025-11-25T10:07:57Z) - Diffusion Bridge Networks Simulate Clinical-grade PET from MRI for Dementia Diagnostics [20.93414282937884]
診断品質のFDG-PET像をシミュレートするために,MRIから確率的マッピングと補助的患者情報を学ぶフレームワークSiM2Pを提案する。
SiM2Pは3群の鑑別精度を75.0%から84.7%に改善した。
論文 参考訳(メタデータ) (2025-10-17T11:42:11Z) - HiDe-PET: Continual Learning via Hierarchical Decomposition of Parameter-Efficient Tuning [55.88910947643436]
予備学習モデル(PTM)とパラメータ効率チューニング(PET)を組み合わせた連続学習(CL)統合フレームワークを提案する。
タスク固有知識とタスク共有知識を取り入れることで目的を明示的に最適化する革新的な手法である階層分解PET(HiDe-PET)を提案する。
提案手法は,近年の強いベースラインの幅広いスペクトルに対して,極めて優れた性能を示す。
論文 参考訳(メタデータ) (2024-07-07T01:50:25Z) - Contrastive Diffusion Model with Auxiliary Guidance for Coarse-to-Fine
PET Reconstruction [62.29541106695824]
本稿では, 粗い予測モジュール (CPM) と反復的修正モジュール (IRM) から構成される粗大なPET再構成フレームワークを提案する。
計算オーバーヘッドの大部分をCPMに委譲することで,本手法のサンプリング速度を大幅に向上させることができる。
2つの追加戦略、すなわち補助的な誘導戦略と対照的な拡散戦略が提案され、再構築プロセスに統合される。
論文 参考訳(メタデータ) (2023-08-20T04:10:36Z) - CA-LoRA: Adapting Existing LoRA for Compressed LLMs to Enable Efficient Multi-Tasking on Personal Devices [78.16679232748196]
本稿では,Large Language Models (LLM) を他のタスクに転送するための圧縮対応 LoRA (CA-LoRA) フレームワークを提案する。
実験の結果,CA-LoRAは圧縮LDMに適用したバニラロラ法よりも優れていた。
CA-LoRAのソースコードはhttps://github.com/thunlp/CA-LoRAで公開されている。
論文 参考訳(メタデータ) (2023-07-15T04:37:11Z) - Synthetic PET via Domain Translation of 3D MRI [1.0052333944678682]
56ドルのF-FDG-PET/MRI検査データセットを用いて3D残像UNetをトレーニングし,全身T1強調MRIによる生理的PET取り込みを予測する。
予測されたPET画像は前方に投影され、ベンダーが提供するPET再構成アルゴリズムで使用できる合成PETタイム・オブ・フライ・シングラムを生成する。
論文 参考訳(メタデータ) (2022-06-11T21:32:40Z) - A resource-efficient deep learning framework for low-dose brain PET
image reconstruction and analysis [13.713286047709982]
本稿では,L-PET再構成と解析のための資源効率の高いディープラーニングフレームワーク,TransGAN-SDAMを提案する。
トランスGANは高品質なF-PET画像を生成し、SDAMは生成されたF-PETスライス列の空間情報を統合して全脳F-PET画像を生成する。
論文 参考訳(メタデータ) (2022-02-14T08:40:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。