論文の概要: How Universal Are SAM2 Features?
- arxiv url: http://arxiv.org/abs/2510.17051v1
- Date: Sun, 19 Oct 2025 23:31:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.266102
- Title: How Universal Are SAM2 Features?
- Title(参考訳): SAM2の機能はどの程度普遍的か?
- Authors: Masoud Khairi Atani, Alon Harell, Hyomin Choi, Runyu Yang, Fabien Racape, Ivan V. Bajic,
- Abstract要約: 汎用Hieraエンコーダとセグメンテーション特化セグメンションモデル2(SAM2)の比較を行う。
軽量で訓練可能なネックを用いて、凍結した特徴の適応性を探索し、特殊化の情報理論コストを定量化する。
その結果,SAM2の特殊化は深度推定などの空間的関連タスクに非常に効果的であるが,コストがかかることがわかった。
- 参考スコア(独自算出の注目度): 14.833819368322091
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The trade-off between general-purpose foundation vision models and their specialized counterparts is critical for efficient feature coding design and is not yet fully understood. We investigate this trade-off by comparing the feature versatility of the general-purpose Hiera encoder against the segmentation-specialized Segment Anything Model 2 (SAM2). Using a lightweight, trainable neck to probe the adaptability of their frozen features, we quantify the information-theoretic cost of specialization. Our results reveal that while SAM2's specialization is highly effective for spatially-related tasks like depth estimation, it comes at a cost. The specialized SAM2 encoder underperforms its generalist predecessor, Hiera, on conceptually distant tasks such as pose estimation and image captioning, demonstrating a measurable loss of broader semantic information. A novel cross-neck analysis on SAM2 reveals that each level of adaptation creates a further representational bottleneck. Our analysis illuminates these trade-offs in feature universality, providing a quantitative foundation for designing efficient feature coding and adaptation strategies for diverse downstream applications.
- Abstract(参考訳): 汎用ファウンデーションビジョンモデルとそれらの専門的なモデルとのトレードオフは、効率的な特徴コーディング設計に不可欠であり、まだ完全には理解されていない。
本研究では, 汎用ハイラエンコーダの特性をセグメンテーション特化セグメンションモデル2 (SAM2) と比較することにより, このトレードオフについて検討する。
軽量で訓練可能なネックを用いて、凍結した特徴の適応性を探索し、特殊化の情報理論コストを定量化する。
その結果,SAM2の特殊化は深度推定などの空間的関連タスクに非常に効果的であるが,コストがかかることがわかった。
SAM2エンコーダは、ポーズ推定や画像キャプションといった概念的に遠く離れたタスクにおいて、より広い意味情報の計測可能な損失を示す。
SAM2上の新しいクロスネック解析により、各レベルの適応がさらなる表現的ボトルネックを生み出すことが明らかになった。
我々の分析は、これらのトレードオフを機能普遍性に照らし出し、多様な下流アプリケーションのための効率的な特徴符号化および適応戦略を設計するための定量的基盤を提供する。
関連論文リスト
- SAM2-UNeXT: An Improved High-Resolution Baseline for Adapting Foundation Models to Downstream Segmentation Tasks [50.97089872043121]
SAM2-UNeXTはSAM2-UNetの中核となる原理を基盤とした高度なフレームワークである。
我々は、補助的なDINOv2エンコーダの統合によりSAM2の表現能力を拡張する。
我々のアプローチは、単純なアーキテクチャでより正確なセグメンテーションを可能にし、複雑なデコーダ設計の必要性を緩和する。
論文 参考訳(メタデータ) (2025-08-05T15:36:13Z) - O2Former:Direction-Aware and Multi-Scale Query Enhancement for SAR Ship Instance Segmentation [0.3611754783778107]
合成開口レーダ(SAR)画像における船舶の船体セグメンテーションは、海上監視、環境分析、国家安全保障などの用途において重要である。
SAR船体画像は、スケール変動、物体密度、ファジィターゲット境界などの課題を示す。
我々は,SAR画像の構造的特徴を十分に活用して,Mask2Formerを拡張したカスタマイズされたインスタンスセグメンテーションフレームワークであるO2Formerを提案する。
論文 参考訳(メタデータ) (2025-06-13T16:06:51Z) - UrbanSAM: Learning Invariance-Inspired Adapters for Segment Anything Models in Urban Construction [51.54946346023673]
都市形態は本質的に複雑で、様々な形状と様々なスケールの不規則な物体がある。
Segment Anything Model (SAM) は複雑なシーンのセグメンテーションにおいて大きな可能性を示している。
本研究では,複雑な都市環境の分析に特化して設計されたSAMのカスタマイズ版であるUrbanSAMを提案する。
論文 参考訳(メタデータ) (2025-02-21T04:25:19Z) - A SAM-guided Two-stream Lightweight Model for Anomaly Detection [44.73985145110819]
我々は、教師なし異常検出(STLM)のためのSAM誘導2ストリーム軽量モデルを提案する。
MVTec ADベンチマークを用いて行った実験により,約16Mのパラメータを持ち,20msの推論時間を実現したSTLMは,最先端の手法と効果的に競合することが示された。
論文 参考訳(メタデータ) (2024-02-29T13:29:10Z) - RGM: A Robust Generalizable Matching Model [49.60975442871967]
RGM(Robust Generalist Matching)と呼ばれる疎密マッチングのための深部モデルを提案する。
合成トレーニングサンプルと実世界のシナリオのギャップを狭めるために、我々は、疎対応基盤真理を持つ新しい大規模データセットを構築した。
さまざまな密集したスパースなデータセットを混ぜ合わせることができ、トレーニングの多様性を大幅に改善しています。
論文 参考訳(メタデータ) (2023-10-18T07:30:08Z) - Multi-scale and Cross-scale Contrastive Learning for Semantic
Segmentation [5.281694565226513]
セグメンテーションネットワークによって抽出されたマルチスケール特徴の識別能力を高めるために,コントラスト学習を適用した。
まず、エンコーダのマルチスケール表現を共通の特徴空間にマッピングすることにより、教師付き局所言語制約の新しい形式をインスタンス化する。
論文 参考訳(メタデータ) (2022-03-25T01:24:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。