論文の概要: OFL-SAM2: Prompt SAM2 with Online Few-shot Learner for Efficient Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2512.24861v1
- Date: Wed, 31 Dec 2025 13:41:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.667881
- Title: OFL-SAM2: Prompt SAM2 with Online Few-shot Learner for Efficient Medical Image Segmentation
- Title(参考訳): OFL-SAM2: 効率的な医用画像セグメンテーションのためのオンラインFew-shot Learningerを用いたプロンプトSAM2
- Authors: Meng Lan, Lefei Zhang, Xiaomeng Li,
- Abstract要約: OFL-SAM2は、ラベル効率の良い医用画像セグメンテーションのためのプロンプトフリーフレームワークである。
私たちの中核となる考え方は、限られた注釈付きサンプルを活用して、軽量なマッピングネットワークをトレーニングすることです。
3つのMISデータセットの実験により、OFL-SAM2は、限られたトレーニングデータで最先端のパフォーマンスを達成することが示された。
- 参考スコア(独自算出の注目度): 45.521771044784195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Segment Anything Model 2 (SAM2) has demonstrated remarkable promptable visual segmentation capabilities in video data, showing potential for extension to medical image segmentation (MIS) tasks involving 3D volumes and temporally correlated 2D image sequences. However, adapting SAM2 to MIS presents several challenges, including the need for extensive annotated medical data for fine-tuning and high-quality manual prompts, which are both labor-intensive and require intervention from medical experts. To address these challenges, we introduce OFL-SAM2, a prompt-free SAM2 framework for label-efficient MIS. Our core idea is to leverage limited annotated samples to train a lightweight mapping network that captures medical knowledge and transforms generic image features into target features, thereby providing additional discriminative target representations for each frame and eliminating the need for manual prompts. Crucially, the mapping network supports online parameter update during inference, enhancing the model's generalization across test sequences. Technically, we introduce two key components: (1) an online few-shot learner that trains the mapping network to generate target features using limited data, and (2) an adaptive fusion module that dynamically integrates the target features with the memory-attention features generated by frozen SAM2, leading to accurate and robust target representation. Extensive experiments on three diverse MIS datasets demonstrate that OFL-SAM2 achieves state-of-the-art performance with limited training data.
- Abstract(参考訳): Segment Anything Model 2 (SAM2)は、ビデオデータに顕著な視覚的セグメンテーション能力を示し、3次元ボリュームと時間的相関した2次元画像シーケンスを含むMISタスクの拡張の可能性を示している。
しかし、SAM2をMISに適応させることは、細調整と高品質マニュアルプロンプトのための広範囲な注釈付き医療データの必要性など、いくつかの課題を提起している。
これらの課題に対処するために,ラベル効率の高いMISのためのプロンプトフリーなSAM2フレームワーク OFL-SAM2を導入する。
我々の中核となる考え方は、限られた注釈付きサンプルを活用して、医学知識を捉え、汎用画像特徴をターゲット特徴に変換する軽量なマッピングネットワークを訓練することであり、これにより、フレーム毎に識別対象表現を追加し、手動のプロンプトを不要にすることである。
重要なことに、マッピングネットワークは推論中のオンラインパラメータ更新をサポートし、テストシーケンス間のモデルの一般化を強化する。
技術面では,(1)限られたデータを用いてターゲット特徴を生成するためにマッピングネットワークを訓練するオンライン少ショット学習者,(2)凍結SAM2によって生成されたメモリ保持機能とターゲット特徴を動的に統合する適応融合モジュール,の2つの重要なコンポーネントを導入し,精度とロバストなターゲット表現をもたらす。
3つのMISデータセットに対する大規模な実験により、OFL-SAM2は、限られたトレーニングデータで最先端のパフォーマンスを達成することが示された。
関連論文リスト
- Evaluating SAM2 for Video Semantic Segmentation [60.157605818225186]
Anything Model 2 (SAM2)は、画像とビデオの両方において、迅速な視覚オブジェクトのセグメンテーションのための強力な基盤モデルであることが証明されている。
本稿では, SAM2 から高密度ビデオセマンティック (VSS) への拡張について検討する。
我々の実験は、SAM2を利用することでVSSの全体的な性能が向上することを示唆している。
論文 参考訳(メタデータ) (2025-12-01T15:15:16Z) - VesSAM: Efficient Multi-Prompting for Segmenting Complex Vessel [68.24765319399286]
本稿では,2次元血管セグメンテーションに適した,強力で効率的なフレームワークであるVesSAMを提案する。
VesSAMは、(1)局所的なテクスチャ機能を強化する畳み込みアダプタ、(2)解剖学的プロンプトを融合するマルチプロンプトエンコーダ、(3)ジャグアーティファクトを減らす軽量マスクデコーダを統合する。
VesSAMは、最先端のPEFTベースのSAMを10%以上のDiceと13%のIoUで一貫して上回っている。
論文 参考訳(メタデータ) (2025-11-02T15:47:05Z) - Depthwise-Dilated Convolutional Adapters for Medical Object Tracking and Segmentation Using the Segment Anything Model 2 [3.2852663769413106]
本稿では SAM2 の効率的な適応フレームワーク DD-SAM2 を提案する。
DD-SAM2にはDepthwise-Dilated Adapter (DD-Adapter)が組み込まれている。
DD-SAM2はSAM2のストリーミングメモリを完全に活用し、医療ビデオオブジェクトの追跡とセグメンテーションを行う。
論文 参考訳(メタデータ) (2025-07-19T13:19:55Z) - SAMed-2: Selective Memory Enhanced Medical Segment Anything Model [28.534663662441293]
SAM-2アーキテクチャ上に構築された医用画像分割のための新しい基礎モデルを提案する。
画像エンコーダにテンポラプタアダプタを導入し、画像相関をキャプチャし、信頼性駆動型メモリ機構により、後続の検索のために高確かさの機能を格納する。
内部ベンチマークと10の外部データセットによる実験は、マルチタスクシナリオにおける最先端のベースラインよりも優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2025-07-04T16:30:38Z) - DSU-Net:An Improved U-Net Model Based on DINOv2 and SAM2 with Multi-scale Cross-model Feature Enhancement [7.9006143460465355]
本稿では,DINOv2によるSAM2用マルチスケール機能協調フレームワークを提案する。
コストのかかるトレーニングプロセスを必要とせず、カモフラージュ目標検出や有能なオブジェクト検出といった下流タスクにおいて、既存の最先端のメソオードを超越している。
論文 参考訳(メタデータ) (2025-03-27T06:08:24Z) - SAM-I2I: Unleash the Power of Segment Anything Model for Medical Image Translation [0.9626666671366836]
SAM-I2Iは,Segment Anything Model 2 (SAM2) に基づく新しい画像から画像への変換フレームワークである。
マルチコントラストMRIデータセットを用いた実験により、SAM-I2Iは最先端の手法より優れており、より効率的かつ正確な医用画像翻訳を提供することが示された。
論文 参考訳(メタデータ) (2024-11-13T03:30:10Z) - DB-SAM: Delving into High Quality Universal Medical Image Segmentation [100.63434169944853]
本稿では,2次元医療データと2次元医療データとのギャップを埋めるために,DB-SAMという二分岐型SAMフレームワークを提案する。
文献における最近の医療用SAMアダプタと比較して,DB-SAMは8.8%向上した。
論文 参考訳(メタデータ) (2024-10-05T14:36:43Z) - FocSAM: Delving Deeply into Focused Objects in Segmenting Anything [58.042354516491024]
Segment Anything Model (SAM)はセグメンテーションモデルにおいて注目すべきマイルストーンである。
2つの重要な側面に基づいてパイプラインを再設計したFocSAMを提案する。
まず,Dwin-MSA(Dynamic Window Multi-head Self-Attention)を提案する。
次に,Pixel-wise Dynamic ReLU (P-DyReLU)を提案する。
論文 参考訳(メタデータ) (2024-05-29T02:34:13Z) - RefSAM: Efficiently Adapting Segmenting Anything Model for Referring Video Object Segmentation [53.4319652364256]
本稿では,ビデオオブジェクトのセグメンテーションを参照するためのSAMの可能性を探るRefSAMモデルを提案する。
提案手法は,Cross-RValModalを用いることで,モダリティ学習を向上させるためにオリジナルのSAMモデルに適応する。
我々は、言語と視覚の特徴を効果的に調整し、融合させるために、パラメータ効率のチューニング戦略を採用している。
論文 参考訳(メタデータ) (2023-07-03T13:21:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。