論文の概要: AoP-SAM: Automation of Prompts for Efficient Segmentation
- arxiv url: http://arxiv.org/abs/2505.11980v1
- Date: Sat, 17 May 2025 12:27:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:10.969504
- Title: AoP-SAM: Automation of Prompts for Efficient Segmentation
- Title(参考訳): AoP-SAM:効率的なセグメンテーションのためのプロンプトの自動化
- Authors: Yi Chen, Mu-Young Son, Chuanbo Hua, Joo-Young Kim,
- Abstract要約: 本稿では, SAM のための Prompts の自動化 (AoP-SAM) を提案する。
AoP-SAMはSAMの効率性とユーザビリティを向上し、手動入力をなくし、現実世界のタスクに適している。
本稿では、粗い方法でプロンプトを生成するテストタイムのインスタンスレベルの適応サンプリングとフィルタリング機構を提案する。
- 参考スコア(独自算出の注目度): 4.108113665793567
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Segment Anything Model (SAM) is a powerful foundation model for image segmentation, showing robust zero-shot generalization through prompt engineering. However, relying on manual prompts is impractical for real-world applications, particularly in scenarios where rapid prompt provision and resource efficiency are crucial. In this paper, we propose the Automation of Prompts for SAM (AoP-SAM), a novel approach that learns to generate essential prompts in optimal locations automatically. AoP-SAM enhances SAM's efficiency and usability by eliminating manual input, making it better suited for real-world tasks. Our approach employs a lightweight yet efficient Prompt Predictor model that detects key entities across images and identifies the optimal regions for placing prompt candidates. This method leverages SAM's image embeddings, preserving its zero-shot generalization capabilities without requiring fine-tuning. Additionally, we introduce a test-time instance-level Adaptive Sampling and Filtering mechanism that generates prompts in a coarse-to-fine manner. This notably enhances both prompt and mask generation efficiency by reducing computational overhead and minimizing redundant mask refinements. Evaluations of three datasets demonstrate that AoP-SAM substantially improves both prompt generation efficiency and mask generation accuracy, making SAM more effective for automated segmentation tasks.
- Abstract(参考訳): Segment Anything Model (SAM) は画像セグメンテーションの強力な基礎モデルであり、プロンプトエンジニアリングによる堅牢なゼロショット一般化を示す。
しかし、手動プロンプトに頼ることは、特に迅速なプロンプト供給とリソース効率が重要となるシナリオにおいて、現実世界のアプリケーションにとって実用的ではない。
本稿では,最適な場所で重要なプロンプトを自動生成する新しい手法であるSAM(AoP-SAM)の自動化を提案する。
AoP-SAMはSAMの効率性とユーザビリティを向上し、手動入力をなくし、現実世界のタスクに適している。
提案手法では,画像間のキーエンティティを検出し,プロンプト候補を配置する最適な領域を識別する,軽量かつ効率的なPrompt Predictorモデルを採用している。
この方法はSAMのイメージ埋め込みを活用し、微調整を必要とせず、ゼロショットの一般化能力を保っている。
さらに、粗い方法でプロンプトを生成するテストタイムのインスタンスレベルの適応サンプリングとフィルタリング機構を導入する。
これにより、計算オーバーヘッドを減らし、冗長なマスクリファインメントを最小化することにより、プロンプトとマスク生成の効率が向上する。
3つのデータセットの評価により、AoP-SAMは生成効率とマスク生成精度の両方を大幅に改善し、SAMが自動セグメンテーションタスクに有効であることが示されている。
関連論文リスト
- SAMRefiner: Taming Segment Anything Model for Universal Mask Refinement [40.37217744643069]
マスク改善タスクにSAMを適用することで,汎用的で効率的なアプローチを提案する。
具体的には,SAMの多様な入力プロンプトをマイニングするためのマルチプロンプト掘削手法を提案する。
ターゲットデータセット上のジェネリックSAMRefinerのパフォーマンスをさらに向上するため、IoU適応ステップを追加してSAMRefiner++にメソッドを拡張します。
論文 参考訳(メタデータ) (2025-02-10T18:33:15Z) - Promptable Anomaly Segmentation with SAM Through Self-Perception Tuning [63.55145330447408]
異常セグメンテーションのための textbfSelf-textbfPerceptinon textbfTuning (textbfSPT) 法を提案する。
SPT法は, 自己描画型チューニング戦略を取り入れ, 異常マスクの初期粗いドラフトを生成し, 精製処理を行う。
論文 参考訳(メタデータ) (2024-11-26T08:33:25Z) - AM-SAM: Automated Prompting and Mask Calibration for Segment Anything Model [28.343378406337077]
AM-SAMと呼ばれる自動プロンプトとマスクの校正手法を提案する。
提案手法は入力画像のプロンプトを自動生成し,早期訓練における人的関与の必要性を解消する。
実験の結果,AM-SAMは,人為的および既定のプロンプトの有効性,マッチング,あるいは超越した精度のセグメンテーションを達成できた。
論文 参考訳(メタデータ) (2024-10-13T03:47:20Z) - Stable Segment Anything Model [79.9005670886038]
SAM(Segment Anything Model)は、高品質なプロンプトが与えられた場合、顕著に迅速なセグメンテーションを実現する。
本稿では,SAMのセグメンテーション安定性について,多様なプロンプト特性のスペクトルにわたって包括的解析を行った。
1)SAMのセグメンテーション安定性を広範囲に改善し,2)SAMの強力なセグメンテーション効率と一般化を維持した。
論文 参考訳(メタデータ) (2023-11-27T12:51:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。