論文の概要: Multimodal Slice Interaction Network Enhanced by Transfer Learning for Precise Segmentation of Internal Gross Tumor Volume in Lung Cancer PET/CT Imaging
- arxiv url: http://arxiv.org/abs/2509.22841v1
- Date: Fri, 26 Sep 2025 18:48:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:18.905761
- Title: Multimodal Slice Interaction Network Enhanced by Transfer Learning for Precise Segmentation of Internal Gross Tumor Volume in Lung Cancer PET/CT Imaging
- Title(参考訳): 肺がんPET/CT画像における腫瘍内腫瘍容積の精密分節化のためのトランスファーラーニングによるマルチモーダルスライス相互作用ネットワーク
- Authors: Yi Luo, Yike Guo, Hamed Hooshangnejad, Rui Zhang, Xue Feng, Quan Chen, Wil Ngwa, Kai Ding,
- Abstract要約: PET/CT画像における肺腫瘍内腫瘍容積(IGTV)は肺がんに対する最適な放射線治療に重要である。
我々は,MAMBAを用いたマルチモーダル対話型知覚ネットワークを用いた伝達学習手法を提案する。
2.5Dセグメンテーションフレームワーク内にスライス相互作用モジュール(SIM)を導入し,スライス間関係を効果的にモデル化する。
- 参考スコア(独自算出の注目度): 34.37798183254656
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lung cancer remains the leading cause of cancerrelated deaths globally. Accurate delineation of internal gross tumor volume (IGTV) in PET/CT imaging is pivotal for optimal radiation therapy in mobile tumors such as lung cancer to account for tumor motion, yet is hindered by the limited availability of annotated IGTV datasets and attenuated PET signal intensity at tumor boundaries. In this study, we present a transfer learningbased methodology utilizing a multimodal interactive perception network with MAMBA, pre-trained on extensive gross tumor volume (GTV) datasets and subsequently fine-tuned on a private IGTV cohort. This cohort constitutes the PET/CT subset of the Lung-cancer Unified Cross-modal Imaging Dataset (LUCID). To further address the challenge of weak PET intensities in IGTV peripheral slices, we introduce a slice interaction module (SIM) within a 2.5D segmentation framework to effectively model inter-slice relationships. Our proposed module integrates channel and spatial attention branches with depthwise convolutions, enabling more robust learning of slice-to-slice dependencies and thereby improving overall segmentation performance. A comprehensive experimental evaluation demonstrates that our approach achieves a Dice of 0.609 on the private IGTV dataset, substantially surpassing the conventional baseline score of 0.385. This work highlights the potential of transfer learning, coupled with advanced multimodal techniques and a SIM to enhance the reliability and clinical relevance of IGTV segmentation for lung cancer radiation therapy planning.
- Abstract(参考訳): 肺がんは、世界中でがん関連死亡の原因となっている。
PET/CT画像における内部腫瘍量(IGTV)の正確なデライン化は、腫瘍運動を考慮した肺がんなどの移動性腫瘍の最適な放射線治療において重要であるが、注記IGTVデータセットの不足と腫瘍境界でのPET信号強度の減衰により妨げられる。
本研究では,MAMBAを用いた多モード対話型知覚ネットワークを用いた移動学習手法を提案する。
このコホートはLung-cancer Unified Cross-modal Imaging Dataset (LUCID)のPET/CTサブセットを構成する。
IGTV周辺スライスにおけるPET強度の弱い問題に対処するため,2.5Dセグメンテーションフレームワーク内にスライス相互作用モジュール(SIM)を導入し,スライス間関係を効果的にモデル化する。
提案モジュールは,チャネルおよび空間的注意枝を深度的な畳み込みと統合し,スライス・スライス・スライス・依存関係のより堅牢な学習を可能にし,全体的なセグメンテーション性能を向上させる。
包括的実験により,本手法はIGTVデータセット上で0.609のDiceを達成し,従来の0.385のベースラインスコアを大幅に上回る結果となった。
本研究は, がん放射線治療計画におけるIGTVセグメンテーションの信頼性と臨床的妥当性を高めるために, 高度なマルチモーダル技術とSIMを組み合わせたトランスファーラーニングの可能性を強調した。
関連論文リスト
- Cross-Modal Interactive Perception Network with Mamba for Lung Tumor Segmentation in PET-CT Images [29.523577037519985]
深層学習モデルでは、画像品質の低下、運動アーティファクト、複雑な腫瘍形態などの問題に対処することが期待されている。
我々は,605例のPET-CT画像21,930対からなる,PCLT20Kと呼ばれる大規模PET-CT肺腫瘍セグメンテーションデータセットを紹介した。
PET-CT画像における肺腫瘍のセグメンテーションのためのMamba(CIPA)を用いたクロスモーダル対話型知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2025-03-21T16:04:11Z) - MAST-Pro: Dynamic Mixture-of-Experts for Adaptive Segmentation of Pan-Tumors with Knowledge-Driven Prompts [54.915060471994686]
MAST-Proは,ダイナミックなMixture-of-Experts(D-MoE)とパン腫瘍セグメンテーションのための知識駆動プロンプトを統合した新しいフレームワークである。
具体的には、テキストと解剖学的プロンプトは、腫瘍表現学習を導くドメイン固有の事前情報を提供し、D-MoEは、ジェネリックと腫瘍固有の特徴学習のバランスをとる専門家を動的に選択する。
マルチ解剖学的腫瘍データセットの実験では、MAST-Proは最先端のアプローチよりも優れており、トレーニング可能なパラメータを91.04%削減し、平均改善の5.20%を達成している。
論文 参考訳(メタデータ) (2025-03-18T15:39:44Z) - Developing a PET/CT Foundation Model for Cross-Modal Anatomical and Functional Imaging [39.59895695500171]
FratMAE(Cross-Fraternal Twin Masked Autoencoder)は,全身解剖学的および機能的情報を効果的に統合する新しいフレームワークである。
FratMAEは複雑なクロスモーダル関係とグローバルな取り込みパターンをキャプチャし、下流タスクにおいて優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-03-04T17:49:07Z) - Cross-modality Guidance-aided Multi-modal Learning with Dual Attention
for MRI Brain Tumor Grading [47.50733518140625]
脳腫瘍は世界で最も致命的ながんの1つであり、子供や高齢者に非常に多い。
本稿では,MRI脳腫瘍グレーディングの課題に対処するために,新たな多モード学習法を提案する。
論文 参考訳(メタデータ) (2024-01-17T07:54:49Z) - MEDPSeg: Hierarchical polymorphic multitask learning for the segmentation of ground-glass opacities, consolidation, and pulmonary structures on computed tomography [37.119000111386924]
MEDPSegは階層型多形マルチタスク学習(HPML)を通して異種胸部CTターゲットから学習する
本稿では,GGOと統合セグメンテーションタスクの最先端性能を実現するPMLについて述べる。
さらに、MEDPSegは肺発作、気道、肺動脈、肺病変の分節を同時に行う。
論文 参考訳(メタデータ) (2023-12-04T21:46:39Z) - A Localization-to-Segmentation Framework for Automatic Tumor
Segmentation in Whole-Body PET/CT Images [8.0523823243864]
本稿では,腫瘍の正確な分節化のための局在化・分節化フレームワーク(L2SNet)を提案する。
L2SNetは、まず、病変の局所化段階における可能性のある病変を局在させ、次いで、病変の分節フェーズにおけるセグメント化結果を形成するために位置手がかりを使用する。
全身FDG-PET/CTチャレンジデータセットにおけるMII自動病変を用いた実験により,本手法が競争力のある結果を示した。
論文 参考訳(メタデータ) (2023-09-11T13:39:15Z) - Improved Prognostic Prediction of Pancreatic Cancer Using Multi-Phase CT
by Integrating Neural Distance and Texture-Aware Transformer [37.55853672333369]
本稿では, 異なる患者のCT像における腫瘍と血管の正確な関係を記述した, 学習可能なニューラル距離を提案する。
発達したリスクマーカーは, 術前因子の生存率の予測因子として最強であった。
論文 参考訳(メタデータ) (2023-08-01T12:46:02Z) - ISA-Net: Improved spatial attention network for PET-CT tumor
segmentation [22.48294544919023]
多モードポジトロン放射トモグラフィー(PET-CT)に基づく深層学習セグメンテーション法を提案する。
腫瘍検出におけるPETやCTの精度を高めるために,改良された空間注意ネットワーク(ISA-Net)を設計した。
今回提案したISA-Net法を,軟部組織肉腫 (STS) と頭頸部腫瘍 (HECKTOR) の2つの臨床データセットで検証した。
論文 参考訳(メタデータ) (2022-11-04T04:15:13Z) - Segmentation of Lung Tumor from CT Images using Deep Supervision [0.8733639720576208]
肺がんは世界中のほとんどの国で死因となっている。
本稿では,LOTUSデータセットに2次元離散ウェーブレット変換(DWT)を適用し,肺腫瘍のセグメンテーションにアプローチする。
論文 参考訳(メタデータ) (2021-11-17T17:50:18Z) - Multimodal Spatial Attention Module for Targeting Multimodal PET-CT Lung
Tumor Segmentation [11.622615048002567]
マルチモーダル空間アテンションモジュール(MSAM)は腫瘍に関連する領域を強調することを学ぶ。
MSAMは一般的なバックボーンアーキテクチャやトレーニングされたエンドツーエンドに適用できる。
論文 参考訳(メタデータ) (2020-07-29T10:27:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。