論文の概要: Context-Gated Cross-Modal Perception with Visual Mamba for PET-CT Lung Tumor Segmentation
- arxiv url: http://arxiv.org/abs/2510.27508v1
- Date: Fri, 31 Oct 2025 14:29:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-03 17:52:16.131117
- Title: Context-Gated Cross-Modal Perception with Visual Mamba for PET-CT Lung Tumor Segmentation
- Title(参考訳): PET-CT肺腫瘍分節に対する視覚マンバを用いたコンテキストゲート型クロスモーダル知覚法
- Authors: Elena Mulero Ayllón, Linlin Shen, Pierangelo Veltri, Fabrizia Gelardi, Arturo Chiti, Paolo Soda, Matteo Tortora,
- Abstract要約: vMambaXは、PETとCTスキャン画像をContext-Gated Cross-Modal Perception Moduleを通じて統合する軽量フレームワークである。
PCLT20Kデータセットで評価すると、モデルは低い計算複雑性を維持しながらベースラインモデルより優れている。
- 参考スコア(独自算出の注目度): 37.40806731129113
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate lung tumor segmentation is vital for improving diagnosis and treatment planning, and effectively combining anatomical and functional information from PET and CT remains a major challenge. In this study, we propose vMambaX, a lightweight multimodal framework integrating PET and CT scan images through a Context-Gated Cross-Modal Perception Module (CGM). Built on the Visual Mamba architecture, vMambaX adaptively enhances inter-modality feature interaction, emphasizing informative regions while suppressing noise. Evaluated on the PCLT20K dataset, the model outperforms baseline models while maintaining lower computational complexity. These results highlight the effectiveness of adaptive cross-modal gating for multimodal tumor segmentation and demonstrate the potential of vMambaX as an efficient and scalable framework for advanced lung cancer analysis. The code is available at https://github.com/arco-group/vMambaX.
- Abstract(参考訳): 正確な肺腫瘍切除は診断と治療計画の改善に不可欠であり,PETとCTの解剖学的および機能的情報を効果的に組み合わせることが大きな課題である。
本研究では,PETとCTのスキャン画像を統合する軽量なマルチモーダルフレームワークであるvMambaXについて,CGM(Context-Gated Cross-Modal Perception Module)を用いて検討した。
Visual Mambaアーキテクチャに基づいて構築されたvMambaXは、ノイズを抑えながら情報領域を強調することで、モダリティ間の機能相互作用を適応的に強化する。
PCLT20Kデータセットで評価すると、モデルは低い計算複雑性を維持しながらベースラインモデルより優れている。
以上の結果から,vMambaXが進行肺癌解析の効率的かつスケーラブルな枠組みである可能性が示唆された。
コードはhttps://github.com/arco-group/vMambaX.comで公開されている。
関連論文リスト
- DRBD-Mamba for Robust and Efficient Brain Tumor Segmentation with Analytical Insights [54.87947751720332]
脳腫瘍の正確なセグメンテーションは、臨床診断と治療に重要である。
マンバを拠点とするState Space Modelsは、有望なパフォーマンスを示している。
本稿では,計算オーバーヘッドを最小限に抑えながら,マルチスケールの長距離依存関係をキャプチャするマルチ解像度双方向マンバを提案する。
論文 参考訳(メタデータ) (2025-10-16T07:31:21Z) - Multimodal Slice Interaction Network Enhanced by Transfer Learning for Precise Segmentation of Internal Gross Tumor Volume in Lung Cancer PET/CT Imaging [34.37798183254656]
PET/CT画像における肺腫瘍内腫瘍容積(IGTV)は肺がんに対する最適な放射線治療に重要である。
我々は,MAMBAを用いたマルチモーダル対話型知覚ネットワークを用いた伝達学習手法を提案する。
2.5Dセグメンテーションフレームワーク内にスライス相互作用モジュール(SIM)を導入し,スライス間関係を効果的にモデル化する。
論文 参考訳(メタデータ) (2025-09-26T18:48:08Z) - impuTMAE: Multi-modal Transformer with Masked Pre-training for Missing Modalities Imputation in Cancer Survival Prediction [75.43342771863837]
我々は,効率的なマルチモーダル事前学習戦略を備えた新しいトランスフォーマーに基づくエンドツーエンドアプローチである impuTMAE を紹介する。
マスクされたパッチを再構築することで、モダリティの欠如を同時に示唆しながら、モダリティ間の相互作用とモダリティ内相互作用を学習する。
本モデルは,TGA-GBM/LGGとBraTSデータセットを用いたグリオーマ生存予測のために,異種不完全データに基づいて事前訓練を行った。
論文 参考訳(メタデータ) (2025-08-08T10:01:16Z) - Cross-Modal Interactive Perception Network with Mamba for Lung Tumor Segmentation in PET-CT Images [29.523577037519985]
深層学習モデルでは、画像品質の低下、運動アーティファクト、複雑な腫瘍形態などの問題に対処することが期待されている。
我々は,605例のPET-CT画像21,930対からなる,PCLT20Kと呼ばれる大規模PET-CT肺腫瘍セグメンテーションデータセットを紹介した。
PET-CT画像における肺腫瘍のセグメンテーションのためのMamba(CIPA)を用いたクロスモーダル対話型知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2025-03-21T16:04:11Z) - H2ASeg: Hierarchical Adaptive Interaction and Weighting Network for Tumor Segmentation in PET/CT Images [6.753315684414596]
PET(Positron emission tomography)とCT(Computed tomography)の併用は、がんの診断や予後に日常的に用いられている。
従来のマルチモーダルセグメンテーションソリューションは、モダリティ融合の連結演算に依存している。
本稿では,H2ASeg と呼ばれる階層型適応的相互作用と重み付けネットワークを提案する。
論文 参考訳(メタデータ) (2024-03-27T08:28:14Z) - Cross-modality Guidance-aided Multi-modal Learning with Dual Attention
for MRI Brain Tumor Grading [47.50733518140625]
脳腫瘍は世界で最も致命的ながんの1つであり、子供や高齢者に非常に多い。
本稿では,MRI脳腫瘍グレーディングの課題に対処するために,新たな多モード学習法を提案する。
論文 参考訳(メタデータ) (2024-01-17T07:54:49Z) - SwinCross: Cross-modal Swin Transformer for Head-and-Neck Tumor
Segmentation in PET/CT Images [6.936329289469511]
クロスモーダルアテンション(CMA)モジュールを備えたクロスモーダルスウィントランス (SwinCross) は、複数の解像度でクロスモーダル特徴抽出を組み込んだ。
提案手法は, 最先端の変圧器を用いた手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-02-08T03:36:57Z) - Improving Classification Model Performance on Chest X-Rays through Lung
Segmentation [63.45024974079371]
本稿では, セグメンテーションによる異常胸部X線(CXR)識別性能を向上させるための深層学習手法を提案する。
提案手法は,CXR画像中の肺領域を局所化するための深層ニューラルネットワーク(XLSor)と,大規模CXRデータセットで事前学習した自己教師あり運動量コントラスト(MoCo)モデルのバックボーンを用いたCXR分類モデルである。
論文 参考訳(メタデータ) (2022-02-22T15:24:06Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。