論文の概要: Memory-SAM: Human-Prompt-Free Tongue Segmentation via Retrieval-to-Prompt
- arxiv url: http://arxiv.org/abs/2510.15849v1
- Date: Fri, 17 Oct 2025 17:42:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.732234
- Title: Memory-SAM: Human-Prompt-Free Tongue Segmentation via Retrieval-to-Prompt
- Title(参考訳): Memory-SAM: Retrieval-to-Promptによるヒトプロンプトフリー舌のセグメンテーション
- Authors: Joongwon Chae, Lihui Luo, Xi Yuan, Dongmei Yu, Zhenglin Chen, Lian Zhang, Peiwu Qin,
- Abstract要約: Memory-SAMは、トレーニングなし、人間プロンプトなしのパイプラインである。
前のケースの小さなメモリから有効プロンプトを自動的に生成する。
その結果,検索とプロンプトは舌画像における不規則境界の,データ効率,ロバストなセグメンテーションを可能にすることが示唆された。
- 参考スコア(独自算出の注目度): 4.712714373340359
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate tongue segmentation is crucial for reliable TCM analysis. Supervised models require large annotated datasets, while SAM-family models remain prompt-driven. We present Memory-SAM, a training-free, human-prompt-free pipeline that automatically generates effective prompts from a small memory of prior cases via dense DINOv3 features and FAISS retrieval. Given a query image, mask-constrained correspondences to the retrieved exemplar are distilled into foreground/background point prompts that guide SAM2 without manual clicks or model fine-tuning. We evaluate on 600 expert-annotated images (300 controlled, 300 in-the-wild). On the mixed test split, Memory-SAM achieves mIoU 0.9863, surpassing FCN (0.8188) and a detector-to-box SAM baseline (0.1839). On controlled data, ceiling effects above 0.98 make small differences less meaningful given annotation variability, while our method shows clear gains under real-world conditions. Results indicate that retrieval-to-prompt enables data-efficient, robust segmentation of irregular boundaries in tongue imaging. The code is publicly available at https://github.com/jw-chae/memory-sam.
- Abstract(参考訳): 舌の正確なセグメンテーションは信頼性TCM解析に不可欠である。
スーパービジョンされたモデルは大きな注釈付きデータセットを必要とし、SAMファミリーモデルはプロンプト駆動のままである。
我々は、DINOv3の高密度機能とFAISS検索により、前例の小さなメモリから効果的なプロンプトを自動的に生成する、トレーニング不要で人為的プロンプトのないパイプラインであるMemory-SAMを提案する。
クエリ画像が与えられた場合、検索した例に対するマスク制約付き対応を、手動クリックやモデル微調整なしでSAM2をガイドする前景/バックグラウンドポイントプロンプトに蒸留する。
我々は600のエキスパート注釈画像(300のコントロール,300のイン・ザ・ワイルド)について評価した。
混合試験分割で、Memory-SAM は mIoU 0.9863 を達成し、FCN (0.8188) と検出器・トゥ・ボックス SAM ベースライン (0.1839) を上回った。
制御されたデータでは,0.98以上の天井効果は,実世界の条件下での顕著な利得を示すのに対して,アノテーションの可変性が小さい。
その結果,検索とプロンプトは舌画像における不規則境界の,データ効率,ロバストなセグメンテーションを可能にすることが示唆された。
コードはhttps://github.com/jw-chae/ memory-sam.comで公開されている。
関連論文リスト
- Prompt-Tuning SAM: From Generalist to Specialist with only 2048 Parameters and 16 Training Images [48.76247995109632]
PTSAM法はパラメータ効率の良い微調整技術であるプロンプトチューニングを用いて,特定のタスクにSAMを適用する。
以上の結果から,SAMのマスクデコーダのみのプロンプトチューニングが,最先端技術と同等の性能を実現することが示唆された。
論文 参考訳(メタデータ) (2025-04-23T14:10:02Z) - Memory Layers at Scale [67.00854080570979]
この研究はメモリ層を概念実証以上のものにし、現代の規模でその有用性を証明している。
ダウンストリームタスクでは、改善されたメモリ層で強化された言語モデルは、予算の2倍以上の高密度モデルよりも優れており、計算とパラメータの両方にマッチする場合の熟練モデルの混合も優れている。
最大128Bのメモリパラメータを持つスケーリング法則を1兆トークンまで事前訓練し,最大8Bパラメータを持つベースモデルと比較した,完全な並列化可能なメモリレイヤの実装を提供する。
論文 参考訳(メタデータ) (2024-12-12T23:56:57Z) - Automating MedSAM by Learning Prompts with Weak Few-Shot Supervision [10.609371657347806]
本研究は,入力プロンプトの条件付けを,画像埋め込みから直接プロンプト埋め込みを学習する軽量モジュールに置き換えることを提案する。
本手法は,医療用画像に微調整したSAMのバージョンであるMedSAMを用いて検証した。
論文 参考訳(メタデータ) (2024-09-30T13:53:01Z) - AlignSAM: Aligning Segment Anything Model to Open Context via Reinforcement Learning [61.666973416903005]
Segment Anything Model (SAM)は、オープンワールドシナリオにおいて、プロンプトのガイダンスによって、その印象的な一般化機能を実証した。
オープンコンテキストにSAMをアライメントするための自動プロンプトのための新しいフレームワークAlignSAMを提案する。
論文 参考訳(メタデータ) (2024-06-01T16:21:39Z) - Stable Segment Anything Model [79.9005670886038]
SAM(Segment Anything Model)は、高品質なプロンプトが与えられた場合、顕著に迅速なセグメンテーションを実現する。
本稿では,SAMのセグメンテーション安定性について,多様なプロンプト特性のスペクトルにわたって包括的解析を行った。
1)SAMのセグメンテーション安定性を広範囲に改善し,2)SAMの強力なセグメンテーション効率と一般化を維持した。
論文 参考訳(メタデータ) (2023-11-27T12:51:42Z) - RSPrompter: Learning to Prompt for Remote Sensing Instance Segmentation
based on Visual Foundation Model [29.42043345787285]
本稿では,Segment Anything Model (SAM) のための適切なプロンプトの生成を学習する手法を提案する。
これによりSAMはリモートセンシング画像に対して意味的に識別可能なセグメンテーション結果を生成することができる。
また,SAMコミュニティ内での最近の進歩を図り,その性能をRSPrompterと比較する。
論文 参考訳(メタデータ) (2023-06-28T14:51:34Z) - How to Efficiently Adapt Large Segmentation Model(SAM) to Medical Images [15.181219203629643]
Segment Anything (SAM)は、自然画像のゼロショットセグメンテーションにおいて印象的な機能を示す。
しかし、医療画像に適用すると、SAMは顕著なパフォーマンス低下に悩まされる。
本研究では,SAMエンコーダを凍結し,軽量なタスク固有予測ヘッドを微調整することを提案する。
論文 参考訳(メタデータ) (2023-06-23T18:34:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。