論文の概要: HWA-UNETR: Hierarchical Window Aggregate UNETR for 3D Multimodal Gastric Lesion Segmentation
- arxiv url: http://arxiv.org/abs/2505.10464v2
- Date: Tue, 20 May 2025 02:23:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 12:33:37.382122
- Title: HWA-UNETR: Hierarchical Window Aggregate UNETR for 3D Multimodal Gastric Lesion Segmentation
- Title(参考訳): HWA-UNETR:3次元マルチモーダル胃病変分割のための階層型ウィンドウ集約UNETR
- Authors: Jiaming Liang, Lihuan Dai, Xiaoqi Sheng, Xiangguang Chen, Chun Yao, Guihua Tao, Qibin Leng, Hongmin Cai, Xi Zhong,
- Abstract要約: HWA-UNETRは、学習可能なウィンドウアグリゲーション層を備えたオリジナルのHWAブロックを利用する、新しい3Dセグメンテーションフレームワークである。
我々のフレームワークは、しっかりとした堅牢性を維持しながら、Diceスコアの1.68%まで既存の手法を上回ります。
- 参考スコア(独自算出の注目度): 11.180283823428711
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multimodal medical image segmentation faces significant challenges in the context of gastric cancer lesion analysis. This clinical context is defined by the scarcity of independent multimodal datasets and the imperative to amalgamate inherently misaligned modalities. As a result, algorithms are constrained to train on approximate data and depend on application migration, leading to substantial resource expenditure and a potential decline in analysis accuracy. To address those challenges, we have made two major contributions: First, we publicly disseminate the GCM 2025 dataset, which serves as the first large-scale, open-source collection of gastric cancer multimodal MRI scans, featuring professionally annotated FS-T2W, CE-T1W, and ADC images from 500 patients. Second, we introduce HWA-UNETR, a novel 3D segmentation framework that employs an original HWA block with learnable window aggregation layers to establish dynamic feature correspondences between different modalities' anatomical structures, and leverages the innovative tri-orientated fusion mamba mechanism for context modeling and capturing long-range spatial dependencies. Extensive experiments on our GCM 2025 dataset and the publicly BraTS 2021 dataset validate the performance of our framework, demonstrating that the new approach surpasses existing methods by up to 1.68\% in the Dice score while maintaining solid robustness. The dataset and code are public via https://github.com/JeMing-creater/HWA-UNETR.
- Abstract(参考訳): 胃癌の病変解析において,マルチモーダル医用画像分割は重要な課題に直面している。
この臨床的文脈は、独立したマルチモーダルデータセットの欠如と、本質的にアマルガメートに固有の不整合性によって定義される。
その結果、アルゴリズムは近似データによるトレーニングに制約され、アプリケーションのマイグレーションに依存するため、かなりのリソース消費と分析精度の潜在的な低下につながる。
GCM 2025データセットは、プロの注釈付きFS-T2W、CE-T1W、および500人の患者のADCイメージを特徴とする、胃がんのマルチモーダルMRIスキャンの大規模なオープンソースコレクションである。
第2に、HWA-UNETRは、学習可能なウィンドウ集約層を持つオリジナルのHWAブロックを用いて、異なるモジュールの解剖構造間の動的特徴対応を確立する新しい3次元セグメンテーションフレームワークである。
GCM 2025データセットとパブリックなBraTS 2021データセットに関する大規模な実験は、我々のフレームワークのパフォーマンスを検証し、新しいアプローチが、堅牢性を維持しながら、Diceスコアの最大1.68倍の既存のメソッドを超えたことを実証した。
データセットとコードはhttps://github.com/JeMing-creater/HWA-UNETRから公開されている。
関連論文リスト
- Foundation Model for Whole-Heart Segmentation: Leveraging Student-Teacher Learning in Multi-Modal Medical Imaging [0.510750648708198]
心血管疾患の診断にはCTとMRIによる全肝分画が不可欠である。
既存の方法は、モダリティ固有のバイアスと、広範なラベル付きデータセットの必要性に苦慮している。
学生-教師アーキテクチャに基づく自己指導型学習フレームワークを用いて,全音節セグメンテーションのための基礎モデルを提案する。
論文 参考訳(メタデータ) (2025-03-24T14:47:54Z) - Multi-Class Segmentation of Aortic Branches and Zones in Computed Tomography Angiography: The AortaSeg24 Challenge [55.252714550918824]
AortaSeg24 MICCAI Challengeは、23の臨床的に関連する大動脈枝と領域に注釈付き100 CTA巻の最初のデータセットを導入した。
本稿では,トップパフォーマンスアルゴリズムの課題設計,データセットの詳細,評価指標,詳細な分析について述べる。
論文 参考訳(メタデータ) (2025-02-07T21:09:05Z) - MRGen: Segmentation Data Engine For Underrepresented MRI Modalities [59.61465292965639]
稀ながら臨床的に重要な画像モダリティのための医用画像分割モデルの訓練は、注釈付きデータの不足により困難である。
本稿では、生成モデルを利用してトレーニングデータを合成し、未表現のモダリティに対するセグメンテーションモデルを訓練する。
論文 参考訳(メタデータ) (2024-12-04T16:34:22Z) - MedCLIP-SAMv2: Towards Universal Text-Driven Medical Image Segmentation [2.2585213273821716]
MedCLIP-SAMv2はCLIPとSAMモデルを統合して臨床スキャンのセグメンテーションを行う新しいフレームワークである。
提案手法は,DHN-NCE(Decoupled Hard Negative Noise Contrastive Estimation)によるBiomedCLIPモデルの微調整を含む。
また,ゼロショットセグメンテーションラベルを弱教師付きパラダイム内で使用することにより,セグメンテーション品質をさらに向上する。
論文 参考訳(メタデータ) (2024-09-28T23:10:37Z) - RadGenome-Chest CT: A Grounded Vision-Language Dataset for Chest CT Analysis [56.57177181778517]
RadGenome-Chest CTはCT-RATEに基づく大規模3次元胸部CT解釈データセットである。
私たちは、最新の強力なユニバーサルセグメンテーションと大きな言語モデルを活用して、元のデータセットを拡張します。
論文 参考訳(メタデータ) (2024-04-25T17:11:37Z) - Source-Free Collaborative Domain Adaptation via Multi-Perspective
Feature Enrichment for Functional MRI Analysis [55.03872260158717]
安静時MRI機能(rs-fMRI)は、神経疾患の分析を助けるために多地点で研究されている。
ソース領域とターゲット領域の間のfMRIの不均一性を低減するための多くの手法が提案されている。
しかし、マルチサイト研究における懸念やデータストレージの負担のため、ソースデータの取得は困難である。
我々は、fMRI解析のためのソースフリー協調ドメイン適応フレームワークを設計し、事前訓練されたソースモデルとラベルなしターゲットデータのみにアクセスできるようにする。
論文 参考訳(メタデータ) (2023-08-24T01:30:18Z) - Learnable Weight Initialization for Volumetric Medical Image Segmentation [66.3030435676252]
本稿では,学習可能な重みに基づくハイブリッド医療画像セグメンテーション手法を提案する。
我々のアプローチはどんなハイブリッドモデルにも簡単に統合でき、外部のトレーニングデータを必要としない。
多臓器・肺がんセグメンテーションタスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-06-15T17:55:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。