論文の概要: Tiny-YOLOSAM: Fast Hybrid Image Segmentation
- arxiv url: http://arxiv.org/abs/2512.22193v1
- Date: Sat, 20 Dec 2025 12:28:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:29.873913
- Title: Tiny-YOLOSAM: Fast Hybrid Image Segmentation
- Title(参考訳): Tiny-YOLOSAM: 高速ハイブリッドイメージセグメンテーション
- Authors: Kenneth Xu, Songhan Wu,
- Abstract要約: TinySAMは軽量で蒸留されたSAMで、強力なゼロショットマスクの品質を保っている。
Tiny-YOLOSAMは高速なハイブリッドパイプラインで、最近のYOLO検出器を使って、TinySAMの箱プロンプトを生成する。
COCO val 2017では、ハイブリッドシステムはクラスに依存しない範囲を大幅に改善し(ARは16.4%から77.1%、mIoUは19.2%から67.8%)、エンドツーエンドのランタイムは49.20s/imageから10.39s/image (4.7x)まで減らした。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Segment Anything Model (SAM) enables promptable, high-quality segmentation but is often too computationally expensive for latency-critical settings. TinySAM is a lightweight, distilled SAM variant that preserves strong zero-shot mask quality, yet its "segment-everything" mode still requires hundreds of prompts and remains slow in practice. We first replicate TinySAM on COCO val2017 using official checkpoints, matching the reported AP within 0.03%, establishing a reliable experimental baseline. Building on this, we propose Tiny-YOLOSAM, a fast hybrid pipeline that uses a recent YOLO detector (YOLOv12) to generate box prompts for TinySAM on salient foreground objects, and supplements uncovered regions with sparse point prompts sampled only where YOLO-guided masks provide no coverage. On COCO val2017, the hybrid system substantially improves class-agnostic coverage (AR from 16.4% to 77.1%, mIoU from 19.2% to 67.8%) while reducing end-to-end runtime from 49.20s/image to 10.39s/image (4.7x) on an Apple M1 Pro CPU. These results suggest detector-guided prompting combined with targeted sparse sampling as an effective alternative to dense "segment-everything" prompting for practical full-scene segmentation.
- Abstract(参考訳): Segment Anything Model (SAM)は、高速で高品質なセグメンテーションを可能にするが、レイテンシクリティカルな設定では計算コストが高すぎることが多い。
TinySAMは軽量で蒸留されたSAMで、強力なゼロショットマスクの品質を保っているが、"セグメンテーション・オールシング"モードは依然として数百のプロンプトを必要とし、実際は遅いままである。
我々は最初に公式チェックポイントを使用してCOCO val2017上でTinySAMを複製し、報告されたAPを0.03%以内でマッチングし、信頼性の高い実験ベースラインを確立した。
そこで我々は,最新のYOLO検出器(YOLOv12)を用いた高速ハイブリッドパイプラインであるTiny-YOLOSAMを提案する。
COCO val2017では、ハイブリッドシステムはクラスに依存しない範囲を大幅に改善し(ARは16.4%から77.1%、mIoUは19.2%から67.8%)、エンドツーエンドのランタイムは49.20s/imageから10.39s/image (4.7x)まで減らした。
これらの結果から, ターゲットスパースサンプリングを併用した検出器誘導プロンプトが, フルシーンセグメンテーションに有効な「セグメンテーション」の代替となることが示唆された。
関連論文リスト
- Generalization vs. Specialization: Evaluating Segment Anything Model (SAM3) Zero-Shot Segmentation Against Fine-Tuned YOLO Detectors [3.5648679864643573]
この研究は、ゼロショットモードで動作するSAM3(Segment Anything Model, SAMv3)とインスタンスセグメンテーションのために微調整された3種類のUltralytics YOLO11の比較を示す。
YOLOはIoU範囲で48-50点の急激な劣化を示し、SAM3はわずか4点の低下を示し、SAM3の12倍の安定性を示した。
論文 参考訳(メタデータ) (2025-12-09T01:54:04Z) - Lite-SAM Is Actually What You Need for Segment Everything [4.696541976769272]
Lite-SAMはSegEveryタスクの効率的なエンドツーエンドソリューションである。
Lite-SAMは4つの主要コンポーネントで構成されている: 合理化されたCNN-Transformerハイブリッドエンコーダ(LiteViT)、自動プロンプトプロポーザルネットワーク(AutoPPN)。
論文 参考訳(メタデータ) (2024-07-12T03:28:46Z) - TinySAM: Pushing the Envelope for Efficient Segment Anything Model [73.06322749886483]
我々は,強力なゼロショット性能を維持しつつ,小さなセグメントの任意のモデル(TinySAM)を得るためのフレームワークを提案する。
これらすべての提案手法により、TinySAMは計算量を大幅に削減し、エンベロープを効率的なセグメント化タスクにプッシュする。
論文 参考訳(メタデータ) (2023-12-21T12:26:11Z) - EdgeSAM: Prompt-In-the-Loop Distillation for SAM [87.52687622659904]
EdgeSAMはSegment Anything Model (SAM)の高速化版である。
我々のアプローチは、VTベースのSAMイメージエンコーダを純粋にCNNベースのアーキテクチャに蒸留することである。
これは、iPhone 14で30FPS以上で動作可能なSAMの最初の派生機種である。
論文 参考訳(メタデータ) (2023-12-11T18:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。