論文の概要: An Arbitrary-Modal Fusion Network for Volumetric Cranial Nerves Tract Segmentation
- arxiv url: http://arxiv.org/abs/2505.02385v1
- Date: Mon, 05 May 2025 06:00:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.570367
- Title: An Arbitrary-Modal Fusion Network for Volumetric Cranial Nerves Tract Segmentation
- Title(参考訳): 容積脳神経路分割のための任意モード核融合ネットワーク
- Authors: Lei Xie, Huajun Zhou, Junxiong Huang, Jiahao Huang, Qingrun Zeng, Jianzhong He, Jiawei Zhang, Baohua Fan, Mingchu Li, Guoqiang Xie, Hao Chen, Yuanjing Feng,
- Abstract要約: そこで我々は,CNTSeg-v2と呼ばれる,体積性頭蓋神経(CNs)の領域分割のための新しい任意モード核融合ネットワークを提案する。
我々のモデルは、他の補助モーダルから情報的特徴を効果的に抽出するために設計されたArbitrary-Modal Collaboration Module (ACM)を含んでいる。
我々のCNTSeg-v2は最先端のセグメンテーション性能を達成し、競合するすべての手法より優れています。
- 参考スコア(独自算出の注目度): 21.228897192093573
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The segmentation of cranial nerves (CNs) tract provides a valuable quantitative tool for the analysis of the morphology and trajectory of individual CNs. Multimodal CNs tract segmentation networks, e.g., CNTSeg, which combine structural Magnetic Resonance Imaging (MRI) and diffusion MRI, have achieved promising segmentation performance. However, it is laborious or even infeasible to collect complete multimodal data in clinical practice due to limitations in equipment, user privacy, and working conditions. In this work, we propose a novel arbitrary-modal fusion network for volumetric CNs tract segmentation, called CNTSeg-v2, which trains one model to handle different combinations of available modalities. Instead of directly combining all the modalities, we select T1-weighted (T1w) images as the primary modality due to its simplicity in data acquisition and contribution most to the results, which supervises the information selection of other auxiliary modalities. Our model encompasses an Arbitrary-Modal Collaboration Module (ACM) designed to effectively extract informative features from other auxiliary modalities, guided by the supervision of T1w images. Meanwhile, we construct a Deep Distance-guided Multi-stage (DDM) decoder to correct small errors and discontinuities through signed distance maps to improve segmentation accuracy. We evaluate our CNTSeg-v2 on the Human Connectome Project (HCP) dataset and the clinical Multi-shell Diffusion MRI (MDM) dataset. Extensive experimental results show that our CNTSeg-v2 achieves state-of-the-art segmentation performance, outperforming all competing methods.
- Abstract(参考訳): 頭蓋神経(CN)の分節は、個々のCNの形態と軌跡の分析に有用な定量的ツールである。
構造的磁気共鳴画像(MRI)と拡散MRIを組み合わせたマルチモーダルCNsトラクションセグメンテーションネットワークは,有望なセグメンテーション性能を実現している。
しかし、機器、ユーザプライバシ、作業条件の制限により、臨床実践において完全なマルチモーダルデータを収集することは困難あるいは不可能である。
本研究では,CNTSeg-v2と呼ばれる,利用可能なモダリティの異なる組み合わせを扱うために1つのモデルを訓練する,体積CNsトラクションセグメンテーションのための新しい任意のモーダル融合ネットワークを提案する。
すべてのモダリティを直接組み合わせる代わりに、データ取得の単純さと結果への貢献が主なモダリティとしてT1重み付き(T1w)画像を選択し、他の補助モダリティの情報選択を監督する。
我々のモデルは、T1w画像の監督によって導かれる他の補助モダリティから情報的特徴を効果的に抽出するために設計されたArbitrary-Modal Collaboration Module (ACM)を含んでいる。
一方、符号付き距離マップを用いて小さな誤差や不連続性を補正し、セグメント化精度を向上させるディープディスタンス誘導多段復号器(DDM)を構築した。
HCP(Human Connectome Project)データセットとMDM(Multi-shell Diffusion MRI)データセットを用いたCNTSeg-v2の評価を行った。
我々のCNTSeg-v2は最先端のセグメンテーション性能を達成し、競合する全ての手法より優れていた。
関連論文リスト
- Multi-encoder nnU-Net outperforms Transformer models with self-supervised pretraining [0.0]
本研究は, 医用画像の解剖学的構造と病理的領域の自動同定と記述を含む, 医用画像セグメンテーションの課題に対処するものである。
本稿では,複数のMRIモダリティを別個のエンコーダで独立に処理するために設計された,自己教師型学習用マルチエンコーダnnU-Netアーキテクチャを提案する。
我々のマルチエンコーダnnU-Netは、Vanilla nnU-Net、SegResNet、Swin UNETRといった他のモデルを上回る93.72%のDice similarity Coefficient(DSC)を達成し、例外的な性能を示す。
論文 参考訳(メタデータ) (2025-04-04T14:31:06Z) - Foundation Model for Whole-Heart Segmentation: Leveraging Student-Teacher Learning in Multi-Modal Medical Imaging [0.510750648708198]
心血管疾患の診断にはCTとMRIによる全肝分画が不可欠である。
既存の方法は、モダリティ固有のバイアスと、広範なラベル付きデータセットの必要性に苦慮している。
学生-教師アーキテクチャに基づく自己指導型学習フレームワークを用いて,全音節セグメンテーションのための基礎モデルを提案する。
論文 参考訳(メタデータ) (2025-03-24T14:47:54Z) - ICH-SCNet: Intracerebral Hemorrhage Segmentation and Prognosis Classification Network Using CLIP-guided SAM mechanism [12.469269425813607]
脳内出血 (ICH) は脳卒中で最も致命的なサブタイプであり, 障害の発生頻度が高いことが特徴である。
既存のアプローチでは、これらの2つのタスクを独立して処理し、主にデータのみにフォーカスする。
本稿では,ICHセグメンテーションと予後分類の両方のために設計されたマルチタスクネットワークICH-SCNetを提案する。
論文 参考訳(メタデータ) (2024-11-07T12:34:25Z) - Modality-agnostic Domain Generalizable Medical Image Segmentation by Multi-Frequency in Multi-Scale Attention [1.1155836879100416]
医用画像セグメンテーションのためのModality-Agnostic Domain Generalizable Network (MADGNet)を提案する。
MFMSAブロックは空間的特徴抽出の過程を洗練させる。
E-SDMは、深い監督を伴うマルチタスク学習における情報損失を軽減する。
論文 参考訳(メタデータ) (2024-05-10T07:34:36Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z) - Towards Cross-modality Medical Image Segmentation with Online Mutual
Knowledge Distillation [71.89867233426597]
本稿では,あるモダリティから学習した事前知識を活用し,別のモダリティにおけるセグメンテーション性能を向上させることを目的とする。
モーダル共有知識を徹底的に活用する新しい相互知識蒸留法を提案する。
MMWHS 2017, MMWHS 2017 を用いた多クラス心筋セグメンテーション実験の結果, CT セグメンテーションに大きな改善が得られた。
論文 参考訳(メタデータ) (2020-10-04T10:25:13Z) - Cross-Domain Segmentation with Adversarial Loss and Covariate Shift for
Biomedical Imaging [2.1204495827342438]
本論文は,異なるモダリティから異なるパターンと共有パターンをカプセル化することにより,ドメイン間データから堅牢な表現を学習できる新しいモデルの実現を目的とする。
正常な臨床試験で得られたCTおよびMRI肝データに対する試験は、提案したモデルが他のすべてのベースラインを大きなマージンで上回っていることを示している。
論文 参考訳(メタデータ) (2020-06-08T07:35:55Z) - Unpaired Multi-modal Segmentation via Knowledge Distillation [77.39798870702174]
本稿では,不対向画像分割のための新しい学習手法を提案する。
提案手法では,CTおよびMRI間での畳み込みカーネルの共有により,ネットワークパラメータを多用する。
我々は2つの多クラスセグメンテーション問題に対するアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2020-01-06T20:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。