論文の概要: Interactive Medical-SAM2 GUI: A Napari-based semi-automatic annotation tool for medical images
- arxiv url: http://arxiv.org/abs/2602.22649v1
- Date: Thu, 26 Feb 2026 06:05:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.548419
- Title: Interactive Medical-SAM2 GUI: A Napari-based semi-automatic annotation tool for medical images
- Title(参考訳): 対話型メディカルSAM2GUI:医療画像の半自動アノテーションツール
- Authors: Woojae Hong, Jong Ha Hwang, Jiyong Chung, Joongyeon Choi, Hyunngun Kim, Yong Hwy Kim,
- Abstract要約: Interactive MedicalSAM2 GUIは、2Dおよび3D画像の半自動アノテーションのためのオープンソースのデスクトップアプリケーションである。
3Dボリュームをスライスシーケンスとして扱うことにより、ボックス/ポイントプロンプトとSAM2の伝搬が統合される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interactive Medical-SAM2 GUI is an open-source desktop application for semi-automatic annotation of 2D and 3D medical images. Built on the Napari multi-dimensional viewer, box/point prompting is integrated with SAM2-style propagation by treating a 3D volume as a slice sequence, enabling mask propagation from sparse prompts using Medical-SAM2 on top of SAM2. Voxel-level annotation remains essential for developing and validating medical imaging algorithms, yet manual labeling is slow and expensive for 3D scans, and existing integrations frequently emphasize per-slice interaction without providing a unified, cohort-oriented workflow for navigation, propagation, interactive correction, and quantitative export in a single local pipeline. To address this practical limitation, a local-first Napari workflow is provided for efficient 3D annotation across multiple studies using standard DICOM series and/or NIfTI volumes. Users can annotate cases sequentially under a single root folder with explicit proceed/skip actions, initialize objects via box-first prompting (including first/last-slice initialization for single-object propagation), refine predictions with point prompts, and finalize labels through prompt-first correction prior to saving. During export, per-object volumetry and 3D volume rendering are supported, and image geometry is preserved via SimpleITK. The GUI is implemented in Python using Napari and PyTorch, with optional N4 bias-field correction, and is intended exclusively for research annotation workflows. The code is released on the project page: https://github.com/SKKU-IBE/Medical-SAM2GUI/.
- Abstract(参考訳): Interactive Medical-SAM2 GUIは、2Dおよび3D画像の半自動アノテーションのためのオープンソースのデスクトップアプリケーションである。
Napari多次元ビューア上に構築されたボックス/ポイントプロンプトは、3Dボリュームをスライスシーケンスとして扱うことによりSAM2スタイルのプロンプトと統合され、SAM2上にMerical-SAM2を用いたスパースプロンプトからのマスクプロンプトのプロンプトを可能にする。
ボクセルレベルのアノテーションは医療画像アルゴリズムの開発と検証には必須であるが、手動ラベリングは3Dスキャンでは遅くて高価であり、既存の統合ではナビゲーション、伝播、インタラクティブな修正、単一のローカルパイプラインでの量的エクスポートのための統一されたコホート指向のワークフローを提供することなく、スライス間相互作用を強調している。
この現実的な制限に対処するために、標準的なDICOMシリーズおよび/またはNIfTIボリュームを使用して、複数の研究にまたがる効率的な3Dアノテーションのために、ローカルファーストのNapariワークフローが提供される。
ユーザーは、明示的なプロンプト/スキップアクションで、単一のルートフォルダーの下に順次アノテートし、ボックスファーストプロンプトでオブジェクトを初期化(単一オブジェクトのプロンプトの最初の/最後の初期化を含む)、ポイントプロンプトで予測を洗練、保存前のプロンプトファースト修正でラベルをファイナライズすることができる。
エクスポート中は、オブジェクトごとのボリュームトライと3Dボリュームレンダリングがサポートされ、画像幾何学はSimpleITKを介して保存される。
GUIはPythonでNapariとPyTorchを使って実装されている。
コードはプロジェクトページ(https://github.com/SKKU-IBE/Medical-SAM2GUI/)で公開されている。
関連論文リスト
- GeoSAM2: Unleashing the Power of SAM2 for 3D Part Segmentation [81.0871900167463]
GeoSAM2は3次元部分分割のためのプロンプト制御可能なフレームワークである。
テクスチャのないオブジェクトが与えられた場合、事前に定義された視点から正規写像とポイントマップを描画する。
部品の選択をガイドするシンプルな2Dプロンプト(クリックやボックス)を受け入れます。
予測されたマスクはオブジェクトにバックプロジェクションされ、ビューに集約される。
論文 参考訳(メタデータ) (2025-08-19T17:58:51Z) - Advancing 3D Scene Understanding with MV-ScanQA Multi-View Reasoning Evaluation and TripAlign Pre-training Dataset [56.533371387182065]
MV-ScanQAは、新しい3D質問応答データセットである。
本稿では,大規模かつ低コストな2D-3D言語事前学習コーパスTripAlignについて紹介する。
さらに,MV-ScanQAにおける多視点推論のためのベースライン手法であるLEGOを開発し,事前学習した2次元LVLMの知識をTripAlignで3Dドメインに転送する。
論文 参考訳(メタデータ) (2025-08-14T20:35:59Z) - DBF-UNet: A Two-Stage Framework for Carotid Artery Segmentation with Pseudo-Label Generation [8.22650587342049]
頸動脈セグメンテーションにおけるスパースアノテーション問題に対処する2段階セグメンテーションフレームワークを提案する。
我々は,これらの中心線に沿ってアノテートされたスライスセントロイドとプロパゲートラベルを補間することにより,連続的な容器中心線を構築する。
第2段階では,Dense Bidirectional Feature Fusion UNetを提案する。
論文 参考訳(メタデータ) (2025-04-01T15:41:57Z) - Rethinking End-to-End 2D to 3D Scene Segmentation in Gaussian Splatting [86.15347226865826]
We design an new end-to-end object-aware lifting approach, called Unified-Lift。
コントラスト損失を用いて学習したガウスレベルの機能を各ガウス点に拡張し、インスタンス情報をエンコードする。
LERF-Masked、Replica、Messy Roomsの3つのベンチマークで実験を行った。
論文 参考訳(メタデータ) (2025-03-18T08:42:23Z) - Learning to Detect Objects from Multi-Agent LiDAR Scans without Manual Labels [40.571133087275406]
エージェント間で補完的な観察を共有するマルチエージェント協調データセットは、このボトルネックを突破する可能性を秘めている。
外部からのラベルを使わずに、DOtAと呼ばれるマルチエージェントLiDARスキャンからオブジェクトを検出する新しい教師なし手法を提案する。
DOtAはエージェント間の補完的な観察を使用して、プリミティブラベルのマルチスケールエンコーディングを行い、高品質で低品質なラベルをデコードする。
論文 参考訳(メタデータ) (2025-03-11T13:34:35Z) - SAM & SAM 2 in 3D Slicer: SegmentWithSAM Extension for Annotating Medical Images [8.575243503004785]
Segment Anything Model 2 (SAM2) は、ビデオに注釈を付けるために設計されたプロンプトベースのセグメンテーションアルゴリズムである。
本稿では,このモデルを3次元医用画像のアノテーションに適用し,一般的なアノテーションソフトウェアである3Dスライダの拡張という形で実装する。
この拡張により、ユーザーは2Dスライスにポイントプロンプトを配置し、アノテーションマスクを生成し、これらのアノテーションを1つの方向または双方向の方法で全ボリュームにわたって伝達することができる。
論文 参考訳(メタデータ) (2024-08-27T17:39:33Z) - MMScan: A Multi-Modal 3D Scene Dataset with Hierarchical Grounded Language Annotations [55.022519020409405]
本稿では,マルチモーダルな3Dシーンデータセットと階層型言語アノテーションを用いたベンチマーク,MMScanを構築した。
結果として得られたマルチモーダルな3Dデータセットは、109kオブジェクトと7.7kリージョン上の1.4Mメタアノテーション付きキャプションと、3Dビジュアルグラウンドと質問応答ベンチマークのための3.04M以上の多様なサンプルを含んでいる。
論文 参考訳(メタデータ) (2024-06-13T17:59:30Z) - 3DMODT: Attention-Guided Affinities for Joint Detection & Tracking in 3D
Point Clouds [95.54285993019843]
本稿では,3次元点雲における複数物体の同時検出と追跡手法を提案する。
本モデルでは,複数のフレームを用いた時間情報を利用してオブジェクトを検出し,一つのネットワーク上で追跡する。
論文 参考訳(メタデータ) (2022-11-01T20:59:38Z) - MONAI Label: A framework for AI-assisted Interactive Labeling of 3D
Medical Images [49.664220687980006]
注釈付きデータセットの欠如は、タスク固有の教師付き機械学習モデルをトレーニングする上で、大きなボトルネックとなる。
本稿では,人工知能(AI)モデルに基づくアプリケーション開発を支援する,フリーかつオープンソースなフレームワークであるmonAI Labelを紹介する。
論文 参考訳(メタデータ) (2022-03-23T12:33:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。