論文の概要: Tiny-YOLOSAM: Fast Hybrid Image Segmentation
- arxiv url: http://arxiv.org/abs/2512.22193v1
- Date: Sat, 20 Dec 2025 12:28:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:29.873913
- Title: Tiny-YOLOSAM: Fast Hybrid Image Segmentation
- Title(参考訳): Tiny-YOLOSAM: 高速ハイブリッドイメージセグメンテーション
- Authors: Kenneth Xu, Songhan Wu,
- Abstract要約: TinySAMは軽量で蒸留されたSAMで、強力なゼロショットマスクの品質を保っている。
Tiny-YOLOSAMは高速なハイブリッドパイプラインで、最近のYOLO検出器を使って、TinySAMの箱プロンプトを生成する。
COCO val 2017では、ハイブリッドシステムはクラスに依存しない範囲を大幅に改善し(ARは16.4%から77.1%、mIoUは19.2%から67.8%)、エンドツーエンドのランタイムは49.20s/imageから10.39s/image (4.7x)まで減らした。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Segment Anything Model (SAM) enables promptable, high-quality segmentation but is often too computationally expensive for latency-critical settings. TinySAM is a lightweight, distilled SAM variant that preserves strong zero-shot mask quality, yet its "segment-everything" mode still requires hundreds of prompts and remains slow in practice. We first replicate TinySAM on COCO val2017 using official checkpoints, matching the reported AP within 0.03%, establishing a reliable experimental baseline. Building on this, we propose Tiny-YOLOSAM, a fast hybrid pipeline that uses a recent YOLO detector (YOLOv12) to generate box prompts for TinySAM on salient foreground objects, and supplements uncovered regions with sparse point prompts sampled only where YOLO-guided masks provide no coverage. On COCO val2017, the hybrid system substantially improves class-agnostic coverage (AR from 16.4% to 77.1%, mIoU from 19.2% to 67.8%) while reducing end-to-end runtime from 49.20s/image to 10.39s/image (4.7x) on an Apple M1 Pro CPU. These results suggest detector-guided prompting combined with targeted sparse sampling as an effective alternative to dense "segment-everything" prompting for practical full-scene segmentation.
- Abstract(参考訳): Segment Anything Model (SAM)は、高速で高品質なセグメンテーションを可能にするが、レイテンシクリティカルな設定では計算コストが高すぎることが多い。
TinySAMは軽量で蒸留されたSAMで、強力なゼロショットマスクの品質を保っているが、"セグメンテーション・オールシング"モードは依然として数百のプロンプトを必要とし、実際は遅いままである。
我々は最初に公式チェックポイントを使用してCOCO val2017上でTinySAMを複製し、報告されたAPを0.03%以内でマッチングし、信頼性の高い実験ベースラインを確立した。
そこで我々は,最新のYOLO検出器(YOLOv12)を用いた高速ハイブリッドパイプラインであるTiny-YOLOSAMを提案する。
COCO val2017では、ハイブリッドシステムはクラスに依存しない範囲を大幅に改善し(ARは16.4%から77.1%、mIoUは19.2%から67.8%)、エンドツーエンドのランタイムは49.20s/imageから10.39s/image (4.7x)まで減らした。
これらの結果から, ターゲットスパースサンプリングを併用した検出器誘導プロンプトが, フルシーンセグメンテーションに有効な「セグメンテーション」の代替となることが示唆された。
関連論文リスト
- Generalization vs. Specialization: Evaluating Segment Anything Model (SAM3) Zero-Shot Segmentation Against Fine-Tuned YOLO Detectors [3.5648679864643573]
この研究は、ゼロショットモードで動作するSAM3(Segment Anything Model, SAMv3)とインスタンスセグメンテーションのために微調整された3種類のUltralytics YOLO11の比較を示す。
YOLOはIoU範囲で48-50点の急激な劣化を示し、SAM3はわずか4点の低下を示し、SAM3の12倍の安定性を示した。
論文 参考訳(メタデータ) (2025-12-09T01:54:04Z) - SAM-MI: A Mask-Injected Framework for Enhancing Open-Vocabulary Semantic Segmentation with SAM [25.136857576951282]
Mask-injected framework SAM-MIはSAMとOVSSモデルを統合し、課題に対処する。
SAM-MIはテキスト誘導スパースポイントプロンプターを使用して、以前の密度の強いグリッドのようなプロンプトの代わりにSAMのスパースプロンプターをサンプリングする。
DMIにはSAM生成マスクが組み込まれており、ラベルと直接組み合わせるのではなく、低周波と高周波を別々に誘導する。
論文 参考訳(メタデータ) (2025-11-25T07:52:07Z) - VesSAM: Efficient Multi-Prompting for Segmenting Complex Vessel [68.24765319399286]
本稿では,2次元血管セグメンテーションに適した,強力で効率的なフレームワークであるVesSAMを提案する。
VesSAMは、(1)局所的なテクスチャ機能を強化する畳み込みアダプタ、(2)解剖学的プロンプトを融合するマルチプロンプトエンコーダ、(3)ジャグアーティファクトを減らす軽量マスクデコーダを統合する。
VesSAMは、最先端のPEFTベースのSAMを10%以上のDiceと13%のIoUで一貫して上回っている。
論文 参考訳(メタデータ) (2025-11-02T15:47:05Z) - Prompt-Tuning SAM: From Generalist to Specialist with only 2048 Parameters and 16 Training Images [48.76247995109632]
PTSAM法はパラメータ効率の良い微調整技術であるプロンプトチューニングを用いて,特定のタスクにSAMを適用する。
以上の結果から,SAMのマスクデコーダのみのプロンプトチューニングが,最先端技術と同等の性能を実現することが示唆された。
論文 参考訳(メタデータ) (2025-04-23T14:10:02Z) - Lite-SAM Is Actually What You Need for Segment Everything [4.696541976769272]
Lite-SAMはSegEveryタスクの効率的なエンドツーエンドソリューションである。
Lite-SAMは4つの主要コンポーネントで構成されている: 合理化されたCNN-Transformerハイブリッドエンコーダ(LiteViT)、自動プロンプトプロポーザルネットワーク(AutoPPN)。
論文 参考訳(メタデータ) (2024-07-12T03:28:46Z) - TinySAM: Pushing the Envelope for Efficient Segment Anything Model [73.06322749886483]
我々は,強力なゼロショット性能を維持しつつ,小さなセグメントの任意のモデル(TinySAM)を得るためのフレームワークを提案する。
これらすべての提案手法により、TinySAMは計算量を大幅に削減し、エンベロープを効率的なセグメント化タスクにプッシュする。
論文 参考訳(メタデータ) (2023-12-21T12:26:11Z) - EdgeSAM: Prompt-In-the-Loop Distillation for SAM [87.52687622659904]
EdgeSAMはSegment Anything Model (SAM)の高速化版である。
我々のアプローチは、VTベースのSAMイメージエンコーダを純粋にCNNベースのアーキテクチャに蒸留することである。
これは、iPhone 14で30FPS以上で動作可能なSAMの最初の派生機種である。
論文 参考訳(メタデータ) (2023-12-11T18:59:52Z) - Stable Segment Anything Model [79.9005670886038]
SAM(Segment Anything Model)は、高品質なプロンプトが与えられた場合、顕著に迅速なセグメンテーションを実現する。
本稿では,SAMのセグメンテーション安定性について,多様なプロンプト特性のスペクトルにわたって包括的解析を行った。
1)SAMのセグメンテーション安定性を広範囲に改善し,2)SAMの強力なセグメンテーション効率と一般化を維持した。
論文 参考訳(メタデータ) (2023-11-27T12:51:42Z) - Segment Anything in High Quality [116.39405160133315]
そこで本研究では,SAM のプロンプト可能な設計,効率,ゼロショットの一般化性を維持しつつ,任意のオブジェクトを正確にセグメント化できる HQ-SAM を提案する。
注意深い設計はSAMの事前訓練されたモデルの重みを再利用し、保存し、最小限の追加パラメータと計算しか導入しない。
ダウンストリームタスクにまたがる10種類のセグメンテーションデータセットでHQ-SAMの有効性を示し,そのうち8つをゼロショット転送プロトコルで評価した。
論文 参考訳(メタデータ) (2023-06-02T14:23:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。