論文の概要: Lightweight Method for Interactive 3D Medical Image Segmentation with Multi-Round Result Fusion
- arxiv url: http://arxiv.org/abs/2412.08315v1
- Date: Wed, 11 Dec 2024 11:52:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-12 14:02:22.053891
- Title: Lightweight Method for Interactive 3D Medical Image Segmentation with Multi-Round Result Fusion
- Title(参考訳): 多値核融合によるインタラクティブな3次元医用画像分割のための軽量化法
- Authors: Bingzhi Shen, Lufan Chang, Siqi Chen, Shuxiang Guo, Hao Liu,
- Abstract要約: Segment Anything Model (SAM) は、インタラクティブセグメンテーションにおけるゼロショットの一般化機能により、広く注目を集めている。
コンパクトCNNモデルの可能性を示す新しいアプローチとして、3次元医用画像のための軽量インタラクティブネットワーク(LIM-Net)を提案する。
LIM-Netは、ユーザヒントから2Dプロンプトマスクを生成することによってセグメンテーションを開始する。
SAMベースのモデルと比較して、より強力な一般化が示され、競争精度が向上する一方で、より少ない相互作用が要求される。
- 参考スコア(独自算出の注目度): 7.158573385931718
- License:
- Abstract: In medical imaging, precise annotation of lesions or organs is often required. However, 3D volumetric images typically consist of hundreds or thousands of slices, making the annotation process extremely time-consuming and laborious. Recently, the Segment Anything Model (SAM) has drawn widespread attention due to its remarkable zero-shot generalization capabilities in interactive segmentation. While researchers have explored adapting SAM for medical applications, such as using SAM adapters or constructing 3D SAM models, a key question remains: Can traditional CNN networks achieve the same strong zero-shot generalization in this task? In this paper, we propose the Lightweight Interactive Network for 3D Medical Image Segmentation (LIM-Net), a novel approach demonstrating the potential of compact CNN-based models. Built upon a 2D CNN backbone, LIM-Net initiates segmentation by generating a 2D prompt mask from user hints. This mask is then propagated through the 3D sequence via the Memory Module. To refine and stabilize results during interaction, the Multi-Round Result Fusion (MRF) Module selects and merges optimal masks from multiple rounds. Our extensive experiments across multiple datasets and modalities demonstrate LIM-Net's competitive performance. It exhibits stronger generalization to unseen data compared to SAM-based models, with competitive accuracy while requiring fewer interactions. Notably, LIM-Net's lightweight design offers significant advantages in deployment and inference efficiency, with low GPU memory consumption suitable for resource-constrained environments. These promising results demonstrate LIM-Net can serve as a strong baseline, complementing and contrasting with popular SAM models to further boost effective interactive medical image segmentation. The code will be released at \url{https://github.com/goodtime-123/LIM-Net}.
- Abstract(参考訳): 医用画像では、病変や臓器の正確なアノテーションが必要とされることが多い。
しかし、3Dボリューム画像は典型的には数百から数千のスライスで構成されており、アノテーション処理は非常に時間がかかり、手間がかかる。
近年,対話型セグメンテーションにおけるゼロショット一般化機能により,SAM(Segment Anything Model)が注目されている。
SAMアダプタの使用や3D SAMモデルの構築など、医学的応用にSAMを適用することを検討する研究者もいるが、重要な疑問が残る。
本稿では,コンパクトCNNモデルの可能性を示す新しいアプローチとして,LIM-Net(Lightweight Interactive Network for 3D Medical Image Segmentation)を提案する。
2D CNNのバックボーン上に構築されたLIM-Netは、ユーザヒントから2Dプロンプトマスクを生成することによってセグメンテーションを開始する。
このマスクは、メモリモジュールを介して3Dシーケンスを介して伝播される。
相互作用中の結果を洗練・安定化するために、Multi-Round Result Fusion (MRF)モジュールは複数のラウンドから最適なマスクを選択し、マージする。
複数のデータセットとモダリティにまたがる広範な実験は、LIM-Netの競合性能を示している。
SAMベースのモデルと比較して、より強力な一般化が示され、競争精度が向上する一方で、より少ない相互作用が要求される。
特に、LIM-Netの軽量設計は、リソース制約のある環境に適した低GPUメモリ使用量で、デプロイメントと推論の効率に大きな利点をもたらす。
これらの有望な結果は、LIM-Netが強力なベースラインとして機能し、一般的なSAMモデルと補完し、対比することにより、効果的なインタラクティブな医用画像セグメンテーションをさらに促進できることを示している。
コードは \url{https://github.com/goodtime-123/LIM-Net} でリリースされる。
関連論文リスト
- Prompting Segment Anything Model with Domain-Adaptive Prototype for Generalizable Medical Image Segmentation [49.5901368256326]
医用画像のセグメンテーションにおけるセグメンテーションモデル(DAPSAM)の微調整のための新しいドメイン適応型プロンプトフレームワークを提案する。
DAPSAMは,2つの医療画像分割タスクにおいて,異なるモダリティで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-09-19T07:28:33Z) - PAM: A Propagation-Based Model for Segmenting Any 3D Objects across Multi-Modal Medical Images [11.373941923130305]
PAM(Propagating Anything Model)は、境界ボックスやスケッチのような2Dプロンプトを使用して、医療画像ボリュームの完全な3Dセグメンテーションを作成するセグメンテーションアプローチである。
MedSAMやSegVolのような既存のモデルでは、44の医療データセットと様々な種類のオブジェクトに対して平均18.1%以上のダイス類似度係数(DSC)が向上した。
論文 参考訳(メタデータ) (2024-08-25T13:42:47Z) - Novel adaptation of video segmentation to 3D MRI: efficient zero-shot knee segmentation with SAM2 [1.6237741047782823]
Segment Anything Model 2 を応用した3次元膝関節MRIのゼロショット単発セグメンテーション法を提案する。
3次元医用ボリュームのスライスを個々のビデオフレームとして扱うことで、SAM2の高度な能力を利用して、モーションおよび空間認識の予測を生成する。
SAM2は、訓練や微調整を伴わずに、ゼロショット方式でセグメント化タスクを効率的に実行できることを実証する。
論文 参考訳(メタデータ) (2024-08-08T21:39:15Z) - Multi-Scale and Detail-Enhanced Segment Anything Model for Salient Object Detection [58.241593208031816]
Segment Anything Model (SAM) は、強力なセグメンテーションと一般化機能を提供する視覚的基本モデルとして提案されている。
実物検出のためのMDSAM(Multi-scale and Detail-enhanced SAM)を提案する。
実験により,複数のSODデータセット上でのモデルの優れた性能が示された。
論文 参考訳(メタデータ) (2024-08-08T09:09:37Z) - Interactive 3D Medical Image Segmentation with SAM 2 [17.523874868612577]
ビデオで訓練した次世代のMeta SAMモデルSAM 2のゼロショット機能について, 医用画像のセグメンテーションについて検討する。
3D画像のシーケンシャルな2Dスライスをビデオフレームとして扱うことで、SAM 2は単一のフレームから3Dボリューム全体へのアノテーションの完全な伝達を可能にする。
論文 参考訳(メタデータ) (2024-08-05T16:58:56Z) - MAS-SAM: Segment Any Marine Animal with Aggregated Features [55.91291540810978]
そこで本研究では,海洋生物のセグメンテーションのためのMAS-SAMという新しい特徴学習フレームワークを提案する。
本手法により,グローバルな文脈的手がかりからよりリッチな海洋情報を抽出し,よりきめ細かな局部的詳細を抽出できる。
論文 参考訳(メタデータ) (2024-04-24T07:38:14Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - SAM3D: Segment Anything Model in Volumetric Medical Images [11.764867415789901]
本稿では,3次元ボリューム画像解析に適した革新的適応であるSAM3Dを紹介する。
我々のSAM3Dモデルは、ボリュームを個別に2次元スライスに変換することでボリュームデータを分割する現在のSAMベース手法とは異なり、統一的なアプローチで全3次元ボリューム画像を処理する。
論文 参考訳(メタデータ) (2023-09-07T06:05:28Z) - SAMM (Segment Any Medical Model): A 3D Slicer Integration to SAM [6.172995387355581]
3次元スライダにおけるSAMの拡張であるSegment Any Medical Model (SAMM)を紹介する。
SAMMは完全なサイクルの0.6秒のレイテンシを実現し、ほぼリアルタイムで画像マスクを推測できる。
論文 参考訳(メタデータ) (2023-04-12T05:39:38Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - CoTr: Efficiently Bridging CNN and Transformer for 3D Medical Image
Segmentation [95.51455777713092]
畳み込みニューラルネットワーク(CNN)は、現代の3D医療画像セグメンテーションのデファクトスタンダードとなっている。
本稿では,bf畳み込みニューラルネットワークとbfトランスbf(cotr)を効率良く橋渡しし,正確な3次元医用画像分割を実現する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T13:34:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。