論文の概要: Segment Any Class (SAC): Multi-Class Few-Shot Semantic Segmentation via Class Region Proposals
- arxiv url: http://arxiv.org/abs/2411.13774v1
- Date: Thu, 21 Nov 2024 01:04:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-22 15:19:17.399188
- Title: Segment Any Class (SAC): Multi-Class Few-Shot Semantic Segmentation via Class Region Proposals
- Title(参考訳): Segment Any Class (SAC): クラス領域の提案によるマルチクラスのFew-Shotセマンティックセマンティックセマンティックセマンティックセマンティックセグメンテーション
- Authors: Hussni Mohd Zakir, Eric Tatt Wei Ho,
- Abstract要約: 本稿では,Segment Any Class (SAC) を提案する。Segment Any Class (SAC) は多クラスセグメンテーションのためにSAMをタスク適応する訓練不要のアプローチである。
SACはクエリイメージ上でクラスレギュレーション提案(CRP)を生成し、クラス認識プロンプトを自動的に生成する。
SACは自動プロンプトのみを利用し、COCO-20iベンチマークの最先端手法よりも優れた結果が得られる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The Segment-Anything Model (SAM) is a vision foundation model for segmentation with a prompt-driven framework. SAM generates class-agnostic masks based on user-specified instance-referring prompts. However, adapting SAM for automated segmentation -- where manual input is absent -- of specific object classes often requires additional model training. We present Segment Any Class (SAC), a novel, training-free approach that task-adapts SAM for Multi-class segmentation. SAC generates Class-Region Proposals (CRP) on query images which allows us to automatically generate class-aware prompts on probable locations of class instances. CRPs are derived from elementary intra-class and inter-class feature distinctions without any additional training. Our method is versatile, accommodating any N-way K-shot configurations for the multi-class few-shot semantic segmentation (FSS) task. Unlike gradient-learning adaptation of generalist models which risk the loss of generalization and potentially suffer from catastrophic forgetting, SAC solely utilizes automated prompting and achieves superior results over state-of-the-art methods on the COCO-20i benchmark, particularly excelling in high N-way class scenarios. SAC is an interesting demonstration of a prompt-only approach to adapting foundation models for novel tasks with small, limited datasets without any modifications to the foundation model itself. This method offers interesting benefits such as intrinsic immunity to concept or feature loss and rapid, online task adaptation of foundation models.
- Abstract(参考訳): Segment-Anything Model (SAM)は、プロンプト駆動フレームワークによるセグメンテーションのためのビジョン基盤モデルである。
SAMは、ユーザが指定したインスタンス参照プロンプトに基づいて、クラスに依存しないマスクを生成する。
しかしながら、特定のオブジェクトクラスの(手動入力がない)自動セグメンテーションにSAMを適用するには、追加のモデルトレーニングが必要になることが多い。
本稿では,Segment Any Class (SAC) を提案する。Segment Any Class (SAC) は,多クラスセグメンテーションのためにSAMをタスク適応する,新しいトレーニング不要なアプローチである。
SACはクエリイメージ上でクラスレギュレーション提案(CRP)を生成し、クラスインスタンスの確率的な位置でクラス認識プロンプトを自動的に生成する。
CRPは初等中等級と中等級の特徴の区別から派生しており、追加の訓練は行わない。
提案手法は汎用性が高く,マルチクラス複数ショットセマンティックセマンティックセマンティックセグメンテーション(FSS)タスクのNウェイKショット構成を調節する。
一般化の損失を危険にさらす一般モデルの勾配学習適応と異なり、SACは自動的なプロンプトのみを利用し、COCO-20iベンチマークの最先端手法よりも優れた結果、特に高いNウェイクラスシナリオにおいて優れた結果が得られる。
SACは、ファンデーションモデル自体を変更することなく、小さな限られたデータセットで新しいタスクに基礎モデルを適用するための、プロンプトのみのアプローチの興味深いデモである。
本手法は,概念や特徴喪失に対する本質的な免疫や,基礎モデルの迅速なオンラインタスク適応といった興味深い利点を提供する。
関連論文リスト
- SAM-IF: Leveraging SAM for Incremental Few-Shot Instance Segmentation [1.1141688859736805]
SAM-IFはSegment Anything Model(SAM)を利用したインクリメンタルな少数ショットインスタンスセグメンテーション手法である。
提案手法は,既存手法と比較して,競争力はあるものの合理的な結果が得られる。
論文 参考訳(メタデータ) (2024-12-15T03:11:41Z) - Embedding Space Allocation with Angle-Norm Joint Classifiers for Few-Shot Class-Incremental Learning [8.321592316231786]
クラス増分学習(class-incremental learning)は、少数のサンプルから新しいクラスを継続的に学習することを目的としている。
現在のクラスは機能空間全体を占有しており、新しいクラスを学ぶのに有害である。
インクリメンタルラウンドにおける少数のサンプルは、完全なトレーニングには不十分である。
論文 参考訳(メタデータ) (2024-11-14T07:31:12Z) - Adapting Segment Anything Model for Unseen Object Instance Segmentation [70.60171342436092]
Unseen Object Instance(UOIS)は、非構造環境で動作する自律ロボットにとって不可欠である。
UOISタスクのためのデータ効率のよいソリューションであるUOIS-SAMを提案する。
UOIS-SAMは、(i)HeatmapベースのPrompt Generator(HPG)と(ii)SAMのマスクデコーダに適応する階層識別ネットワーク(HDNet)の2つの重要なコンポーネントを統合する。
論文 参考訳(メタデータ) (2024-09-23T19:05:50Z) - Memory-guided Network with Uncertainty-based Feature Augmentation for Few-shot Semantic Segmentation [12.653336728447654]
学習可能なメモリベクトルの集合からなるクラス共有メモリ(CSM)モジュールを提案する。
これらのメモリベクトルは、トレーニング中にベースクラスから要素オブジェクトパターンを学習し、トレーニングと推論の両方でクエリ機能を再エンコードする。
我々は、CSMとUFAを代表的FSS作品に統合し、広く使われているPASCAL-5$i$とCOCO-20$i$データセットの実験結果を得た。
論文 参考訳(メタデータ) (2024-06-01T19:53:25Z) - AlignSAM: Aligning Segment Anything Model to Open Context via Reinforcement Learning [61.666973416903005]
Segment Anything Model (SAM)は、オープンワールドシナリオにおいて、プロンプトのガイダンスによって、その印象的な一般化機能を実証した。
オープンコンテキストにSAMをアライメントするための自動プロンプトのための新しいフレームワークAlignSAMを提案する。
論文 参考訳(メタデータ) (2024-06-01T16:21:39Z) - PosSAM: Panoptic Open-vocabulary Segment Anything [58.72494640363136]
PosSAMはオープン・ボキャブラリ・パノプティ・セグメンテーション・モデルであり、Segment Anything Model(SAM)の強みを、エンドツーエンドのフレームワークで視覚ネイティブのCLIPモデルと統合する。
本稿では,マスクの質を適応的に向上し,各画像の推論中にオープン語彙分類の性能を高めるマスク対応選択組立アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-14T17:55:03Z) - Harmonizing Base and Novel Classes: A Class-Contrastive Approach for
Generalized Few-Shot Segmentation [78.74340676536441]
本稿では,プロトタイプの更新を規制し,プロトタイプ間の距離を広くするために,クラス間のコントラスト損失とクラス関係損失を提案する。
提案手法は,PASCAL VOC および MS COCO データセット上での一般化された小ショットセグメンテーションタスクに対して,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2023-03-24T00:30:25Z) - Integrative Few-Shot Learning for Classification and Segmentation [37.50821005917126]
少数ショット分類とセグメンテーション(FS-CS)の統合タスクについて紹介する。
FS-CSは、ターゲットクラスがいくつかの例で与えられるとき、クエリイメージでターゲットオブジェクトを分類し、セグメントすることを目的としている。
本稿では,FS-CSのための統合的数ショット学習フレームワークを提案し,学習者がクラスワイドな前景マップを構築するように訓練する。
論文 参考訳(メタデータ) (2022-03-29T16:14:40Z) - Learning What Not to Segment: A New Perspective on Few-Shot Segmentation [63.910211095033596]
近年では、FSS ( few-shot segmentation) が広く開発されている。
本稿では,問題を緩和するための新鮮で直接的な知見を提案する。
提案されたアプローチのユニークな性質を踏まえて、より現実的で挑戦的な設定にまで拡張する。
論文 参考訳(メタデータ) (2022-03-15T03:08:27Z) - Fine-grained Angular Contrastive Learning with Coarse Labels [72.80126601230447]
教師付きおよび自己監督型コントラスト前訓練を効果的に組み合わせることができる新しい「Angularの正規化」モジュールを紹介します。
この研究は、C2FS分類のこの新しい、挑戦的で、非常に実用的なトピックに関する将来の研究の道を開くのに役立ちます。
論文 参考訳(メタデータ) (2020-12-07T08:09:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。