論文の概要: RL-U$^2$Net: A Dual-Branch UNet with Reinforcement Learning-Assisted Multimodal Feature Fusion for Accurate 3D Whole-Heart Segmentation
- arxiv url: http://arxiv.org/abs/2508.02557v1
- Date: Mon, 04 Aug 2025 16:12:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:22.422099
- Title: RL-U$^2$Net: A Dual-Branch UNet with Reinforcement Learning-Assisted Multimodal Feature Fusion for Accurate 3D Whole-Heart Segmentation
- Title(参考訳): RL-U$^2$Net: 高精度3次元ハードセグメンテーションのための強化学習支援マルチモーダル特徴フュージョン付きデュアルブランチUNet
- Authors: Jierui Qu, Jianchun Zhao,
- Abstract要約: 機能アライメントのための強化学習により強化されたデュアルブランチU-Netアーキテクチャを提案する。
このモデルは、デュアルブランチU字型ネットワークを用いて、CTとMRIのパッチを並列に処理し、新しいRL-XAlignモジュールを導入する。
公開されているMM-WHS 2017データセットの実験結果は、提案されたRL-U$2$Netが既存の最先端メソッドより優れていることを示している。
- 参考スコア(独自算出の注目度): 0.624829068285122
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate whole-heart segmentation is a critical component in the precise diagnosis and interventional planning of cardiovascular diseases. Integrating complementary information from modalities such as computed tomography (CT) and magnetic resonance imaging (MRI) can significantly enhance segmentation accuracy and robustness. However, existing multi-modal segmentation methods face several limitations: severe spatial inconsistency between modalities hinders effective feature fusion; fusion strategies are often static and lack adaptability; and the processes of feature alignment and segmentation are decoupled and inefficient. To address these challenges, we propose a dual-branch U-Net architecture enhanced by reinforcement learning for feature alignment, termed RL-U$^2$Net, designed for precise and efficient multi-modal 3D whole-heart segmentation. The model employs a dual-branch U-shaped network to process CT and MRI patches in parallel, and introduces a novel RL-XAlign module between the encoders. The module employs a cross-modal attention mechanism to capture semantic correspondences between modalities and a reinforcement-learning agent learns an optimal rotation strategy that consistently aligns anatomical pose and texture features. The aligned features are then reconstructed through their respective decoders. Finally, an ensemble-learning-based decision module integrates the predictions from individual patches to produce the final segmentation result. Experimental results on the publicly available MM-WHS 2017 dataset demonstrate that the proposed RL-U$^2$Net outperforms existing state-of-the-art methods, achieving Dice coefficients of 93.1% on CT and 87.0% on MRI, thereby validating the effectiveness and superiority of the proposed approach.
- Abstract(参考訳): 心臓血管疾患の正確な診断と介入計画において, 正確な全節分割は重要な要素である。
CT (Computed Tomography) やMRI (Magnetic resonance Imaging) などのモダリティからの補完情報を統合することで, セグメンテーション精度とロバスト性を大幅に向上させることができる。
しかし、既存のマルチモーダルセグメンテーション手法にはいくつかの制限がある: モダリティ間の激しい空間的不整合は効果的な機能融合を妨げる; 融合戦略はしばしば静的で適応性に欠ける; 特徴アライメントとセグメンテーションのプロセスは分離され、非効率である。
これらの課題に対処するために,RL-U$^2$Netと呼ばれる機能アライメントのための強化学習により強化されたデュアルブランチU-Netアーキテクチャを提案する。
このモデルは、デュアルブランチU字型ネットワークを用いて、CTとMRIのパッチを並列に処理し、エンコーダ間に新しいRL-XAlignモジュールを導入する。
モジュールは、モダリティ間の意味的対応を捉えるためのクロスモーダルアテンション機構を採用し、強化学習エージェントは、解剖学的ポーズとテクスチャの特徴を一貫して整合させる最適な回転戦略を学ぶ。
整列された機能は、それぞれのデコーダによって再構成される。
最後に、アンサンブル学習に基づく決定モジュールは、個々のパッチからの予測を統合し、最終的なセグメンテーション結果を生成する。
RL-U$^2$NetはCTで93.1%、MRIで87.0%のDice係数を達成し、提案手法の有効性と優位性を検証した。
関連論文リスト
- Graph-based Multi-Modal Interaction Lightweight Network for Brain Tumor Segmentation (GMLN-BTS) in Edge Iterative MRI Lesion Localization System (EdgeIMLocSys) [6.451534509235736]
本稿では,人間のフィードバックから連続学習を統合するEdge IMLocSys (Edge Iterative MRI Lesion Localization System) を提案する。
このシステムの中心は、GMLN-BTS(GMLN-BTS)のためのグラフベースの多モード相互作用軽量ネットワークである。
提案したGMLN-BTSモデルは、BraTS 2017データセットで85.1%のDiceスコアを達成し、パラメータはわずか458万で、メインストリームの3Dトランスフォーマーモデルと比較して98%削減された。
論文 参考訳(メタデータ) (2025-07-14T07:29:49Z) - CmFNet: Cross-modal Fusion Network for Weakly-supervised Segmentation of Medical Images [15.499686354040774]
そこで我々は,CmFNetを提案する。CmFNetは3次元弱教師付き医用画像分割手法である。
CmFNetは、モダリティ固有の特徴学習ネットワーク、クロスモーダル特徴学習ネットワーク、ハイブリッド教師あり学習戦略の3つの主要コンポーネントで構成されている。
当社のアプローチは、オーバーフィッティングを効果的に軽減し、堅牢なセグメンテーション結果を提供する。
論文 参考訳(メタデータ) (2025-06-22T14:02:27Z) - An Arbitrary-Modal Fusion Network for Volumetric Cranial Nerves Tract Segmentation [21.228897192093573]
そこで我々は,CNTSeg-v2と呼ばれる,体積性頭蓋神経(CNs)の領域分割のための新しい任意モード核融合ネットワークを提案する。
我々のモデルは、他の補助モーダルから情報的特徴を効果的に抽出するために設計されたArbitrary-Modal Collaboration Module (ACM)を含んでいる。
我々のCNTSeg-v2は最先端のセグメンテーション性能を達成し、競合するすべての手法より優れています。
論文 参考訳(メタデータ) (2025-05-05T06:00:41Z) - Prototype Learning Guided Hybrid Network for Breast Tumor Segmentation in DCE-MRI [58.809276442508256]
本稿では,畳み込みニューラルネットワーク(CNN)とトランスフォーマー層を組み合わせたハイブリッドネットワークを提案する。
プライベートおよびパブリックなDCE-MRIデータセットの実験結果から,提案したハイブリッドネットワークは最先端の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-11T15:46:00Z) - Towards Synergistic Deep Learning Models for Volumetric Cirrhotic Liver Segmentation in MRIs [1.5228650878164722]
世界的死亡の主な原因である肝硬変は、効果的な疾患モニタリングと治療計画のためにROIを正確に区分する必要がある。
既存のセグメンテーションモデルは、複雑な機能インタラクションをキャプチャして、さまざまなデータセットをまたいだ一般化に失敗することが多い。
本稿では、補間潜在空間を拡張的特徴相互作用モデリングに活用する新しい相乗論的理論を提案する。
論文 参考訳(メタデータ) (2024-08-08T14:41:32Z) - Unleashing Network Potentials for Semantic Scene Completion [50.95486458217653]
本稿では,新しいSSCフレームワーク - Adrial Modality Modulation Network (AMMNet)を提案する。
AMMNetは、モダリティ間の勾配流の相互依存性を可能にするクロスモーダル変調と、動的勾配競争を利用するカスタマイズされた逆トレーニングスキームの2つのコアモジュールを導入している。
AMMNetは最先端のSSC法よりも大きなマージンで優れていた。
論文 参考訳(メタデータ) (2024-03-12T11:48:49Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Large-Kernel Attention for 3D Medical Image Segmentation [14.76728117630242]
本稿では,多臓器分割と腫瘍分割を正確に行うために,新しいLKアテンションモジュールを提案する。
畳み込みと自己注意の利点は、局所的な文脈情報、長距離依存、チャネル適応を含むLKアテンションモジュールで組み合わせられる。
モジュールはまた、計算コストを最適化するためにLK畳み込みを分解し、U-NetのようなFCNに簡単に組み込むことができる。
論文 参考訳(メタデータ) (2022-07-19T16:32:55Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z) - Unpaired Multi-modal Segmentation via Knowledge Distillation [77.39798870702174]
本稿では,不対向画像分割のための新しい学習手法を提案する。
提案手法では,CTおよびMRI間での畳み込みカーネルの共有により,ネットワークパラメータを多用する。
我々は2つの多クラスセグメンテーション問題に対するアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2020-01-06T20:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。