論文の概要: Multi-Scale Feature Fusion with Image-Driven Spatial Integration for Left Atrium Segmentation from Cardiac MRI Images
- arxiv url: http://arxiv.org/abs/2502.06615v1
- Date: Mon, 10 Feb 2025 16:12:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:30:00.521801
- Title: Multi-Scale Feature Fusion with Image-Driven Spatial Integration for Left Atrium Segmentation from Cardiac MRI Images
- Title(参考訳): 心臓MRI画像からの左房分節に対する画像駆動型空間統合を用いたマルチスケール機能融合
- Authors: Bipasha Kundu, Zixin Yang, Richard Simon, Cristian Linte,
- Abstract要約: 本稿では,DINOv2をエンコーダとしてUNetスタイルのデコーダと統合するフレームワークを提案する。
LAScarQS 2022データセットに対する我々のアプローチを検証するとともに、92.3%のDiceと84.1%のIoUスコアで巨大なアーキテクチャの性能向上を実証した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Accurate segmentation of the left atrium (LA) from late gadolinium-enhanced magnetic resonance imaging plays a vital role in visualizing diseased atrial structures, enabling the diagnosis and management of cardiovascular diseases. It is particularly essential for planning treatment with ablation therapy, a key intervention for atrial fibrillation (AF). However, manual segmentation is time-intensive and prone to inter-observer variability, underscoring the need for automated solutions. Class-agnostic foundation models like DINOv2 have demonstrated remarkable feature extraction capabilities in vision tasks. However, their lack of domain specificity and task-specific adaptation can reduce spatial resolution during feature extraction, impacting the capture of fine anatomical detail in medical imaging. To address this limitation, we propose a segmentation framework that integrates DINOv2 as an encoder with a UNet-style decoder, incorporating multi-scale feature fusion and input image integration to enhance segmentation accuracy. The learnable weighting mechanism dynamically prioritizes hierarchical features from different encoder blocks of the foundation model, optimizing feature selection for task relevance. Additionally, the input image is reintroduced during the decoding stage to preserve high-resolution spatial details, addressing limitations of downsampling in the encoder. We validate our approach on the LAScarQS 2022 dataset and demonstrate improved performance with a 92.3% Dice and 84.1% IoU score for giant architecture compared to the nnUNet baseline model. These findings emphasize the efficacy of our approach in advancing the field of automated left atrium segmentation from cardiac MRI.
- Abstract(参考訳): 左房 (LA) の正確な分画は, 心血管疾患の診断・管理に重要な役割を担っている。
心房細動(AF)の重要な治療であるアブレーション療法の計画には特に重要である。
しかしながら、手動のセグメンテーションは時間集約的であり、サーバ間変動の傾向があり、自動化されたソリューションの必要性が強調されている。
DINOv2のようなクラスに依存しない基礎モデルは、視覚タスクにおいて顕著な特徴抽出能力を示した。
しかし、ドメイン特異性の欠如とタスク特異的適応は、特徴抽出時の空間分解能を低下させ、医療画像における微細な解剖学的詳細の捕捉に影響を及ぼす可能性がある。
この制限に対処するために,DINOv2をエンコーダとしてUNetスタイルのデコーダと統合するセグメンテーションフレームワークを提案する。
学習可能な重み付け機構は、基礎モデルの異なるエンコーダブロックから階層的特徴を動的に優先順位付けし、タスク関連性のための特徴選択を最適化する。
さらに、入力画像はデコード段階で再導入され、エンコーダのダウンサンプリングの制限に対処する高解像度空間の詳細が保存される。
LAScarQS 2022データセットに対する我々のアプローチを検証し、92.3%のDiceと84.1%のIoUスコアで、nnUNetベースラインモデルと比較して改善された性能を示す。
心臓MRIによる左房自動分画の進展に対するアプローチの有効性が示唆された。
関連論文リスト
- Motion-enhancement to Echocardiography Segmentation via Inserting a Temporal Attention Module: An Efficient, Adaptable, and Scalable Approach [4.923733944174007]
本稿では,時間的アテンションモジュールが複数回の特徴的相互作用を抽出する,新しい計算効率の代替手法を提案する。
このモジュールは、既存のCNNやTransformerベースのネットワークにシームレスに統合できる。
この結果から,TAMの堅牢性,スケーラビリティ,多種多様なデータセットとバックボーン間の一般化性が確認された。
論文 参考訳(メタデータ) (2025-01-24T21:35:24Z) - Perspective+ Unet: Enhancing Segmentation with Bi-Path Fusion and Efficient Non-Local Attention for Superior Receptive Fields [19.71033340093199]
本稿では,医療画像のセグメンテーションの限界を克服する新しいアーキテクチャであるspective+Unetを提案する。
このフレームワークは ENLTB という名前の効率的な非局所トランスフォーマーブロックを組み込んでおり、これはカーネル関数近似を利用して、効率的な長距離依存性キャプチャを行う。
ACDCとデータセットに関する実験結果から,提案したパースペクティブ+Unetの有効性が示された。
論文 参考訳(メタデータ) (2024-06-20T07:17:39Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - High Quality Segmentation for Ultra High-resolution Images [72.97958314291648]
超高分解能セグメンテーション精錬作業のための連続精細モデルを提案する。
提案手法は画像分割精細化において高速かつ効果的である。
論文 参考訳(メタデータ) (2021-11-29T11:53:06Z) - Segmentation of Cardiac Structures via Successive Subspace Learning with
Saab Transform from Cine MRI [29.894633364282555]
本研究では,適応バイアス(Saab)変換を用いた部分空間近似を用いた連続部分空間学習による機械学習モデルを提案する。
左心室,右心室,心筋のパラメータが200ドル以上で,最先端のU-Netモデルよりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-07-22T14:50:48Z) - Joint Motion Correction and Super Resolution for Cardiac Segmentation
via Latent Optimisation [18.887520377396925]
心臓画像分割のための動作補正と超解像を共同で行う新しい潜在最適化フレームワークを提案する。
2つの心MRデータセットの実験により、提案手法は最先端の超解像法に匹敵する高い性能を達成することが示された。
論文 参考訳(メタデータ) (2021-07-08T15:14:00Z) - Weakly-supervised Learning For Catheter Segmentation in 3D Frustum
Ultrasound [74.22397862400177]
超音波を用いた新しいカテーテルセグメンテーション法を提案する。
提案手法は,1ボリュームあたり0.25秒の効率で最先端の性能を実現した。
論文 参考訳(メタデータ) (2020-10-19T13:56:22Z) - Unsupervised Instance Segmentation in Microscopy Images via Panoptic
Domain Adaptation and Task Re-weighting [86.33696045574692]
病理組織像における教師なし核分割のためのCycle Consistency Panoptic Domain Adaptive Mask R-CNN(CyC-PDAM)アーキテクチャを提案する。
まず,合成画像中の補助的な生成物を除去するための核塗布機構を提案する。
第二に、ドメイン識別器を持つセマンティックブランチは、パンプトレベルのドメイン適応を実現するように設計されている。
論文 参考訳(メタデータ) (2020-05-05T11:08:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。