論文の概要: Adaptive Prototype Learning and Allocation for Few-Shot Segmentation
- arxiv url: http://arxiv.org/abs/2104.01893v1
- Date: Mon, 5 Apr 2021 13:10:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-06 14:32:18.503761
- Title: Adaptive Prototype Learning and Allocation for Few-Shot Segmentation
- Title(参考訳): 少数ショットセグメンテーションのための適応型プロトタイプ学習と割り当て
- Authors: Gen Li, Varun Jampani, Laura Sevilla-Lara, Deqing Sun, Jonghyun Kim,
Joongkyu Kim
- Abstract要約: SGC(Superpixel-Guided Clustering)とGPA(GPA)という2つの新しいモジュールを提案し、複数のプロトタイプ抽出と割り当てを行います。
sgcはパラメータフリーかつトレーニングフリーなアプローチであり、同様の特徴ベクトルを集約することで、より代表的なプロトタイプを抽出する。
gpaはより正確なガイダンスを提供するためにマッチしたプロトタイプを選択することができる。
本稿では,SGCとGPAを統合することで,オブジェクトのスケールや形状の変化に対応する軽量モデルであるAdaptive Superpixel-Guided Network (ASGNet)を提案する。
- 参考スコア(独自算出の注目度): 45.74646894293767
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prototype learning is extensively used for few-shot segmentation. Typically,
a single prototype is obtained from the support feature by averaging the global
object information. However, using one prototype to represent all the
information may lead to ambiguities. In this paper, we propose two novel
modules, named superpixel-guided clustering (SGC) and guided prototype
allocation (GPA), for multiple prototype extraction and allocation.
Specifically, SGC is a parameter-free and training-free approach, which
extracts more representative prototypes by aggregating similar feature vectors,
while GPA is able to select matched prototypes to provide more accurate
guidance. By integrating the SGC and GPA together, we propose the Adaptive
Superpixel-guided Network (ASGNet), which is a lightweight model and adapts to
object scale and shape variation. In addition, our network can easily
generalize to k-shot segmentation with substantial improvement and no
additional computational cost. In particular, our evaluations on COCO
demonstrate that ASGNet surpasses the state-of-the-art method by 5% in 5-shot
segmentation.
- Abstract(参考訳): プロトタイプ学習は、数発のセグメンテーションに広く使われている。
通常、単一のプロトタイプは、グローバルオブジェクト情報の平均化によってサポート機能から得られる。
しかし、全ての情報を1つのプロトタイプで表現することは曖昧さにつながる可能性がある。
本稿では,マルチプロトタイプ抽出とアロケーションのための2つの新しいモジュール,Superpixel-Guided Clustering (SGC) と Guided prototype allocation (GPA) を提案する。
具体的には、SGCはパラメータフリーでトレーニング不要なアプローチであり、類似した特徴ベクトルを集約することで、より代表的なプロトタイプを抽出する。
本稿では,SGCとGPAを統合することで,オブジェクトのスケールや形状の変化に対応する軽量モデルであるAdaptive Superpixel-Guided Network (ASGNet)を提案する。
さらに,ネットワークは,大幅な改善と計算コストの増大を伴わず,kショットセグメンテーションに容易に一般化できる。
特にCOCOに対する評価では,ASGNetは5ショットセグメンテーションにおいて,最先端の手法を5%超えた。
関連論文リスト
- Self-Regularized Prototypical Network for Few-Shot Semantic Segmentation [31.445316481839335]
本稿では, プロトタイプ抽出に基づく自己正規化ネットワーク(SRPNet)を用いて, サポート情報のより良い活用を目的とした数ショットセグメンテーションに取り組む。
サポートセットの直接的かつ効果的なプロトタイプ正規化は、SRPNetで提案され、生成されたプロトタイプはサポートセット自身で評価され、正規化される。
提案するSRPNetは,1ショットと5ショットのセグメンテーションベンチマークにおいて,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2022-10-30T12:43:07Z) - Few-Shot Segmentation via Rich Prototype Generation and Recurrent
Prediction Enhancement [12.614578133091168]
本稿では,プロトタイプ学習パラダイムを強化するために,リッチプロトタイプ生成モジュール (RPGM) と繰り返し予測拡張モジュール (RPEM) を提案する。
RPGMはスーパーピクセルとK平均クラスタリングを組み合わせて、補完的なスケール関係を持つリッチなプロトタイプ機能を生成する。
RPEMは、リカレントメカニズムを使用して、ラウンドウェイ伝搬デコーダを設計する。
論文 参考訳(メタデータ) (2022-10-03T08:46:52Z) - Rethinking Semantic Segmentation: A Prototype View [126.59244185849838]
学習不可能なプロトタイプをベースとした非パラメトリックセマンティックセマンティックセマンティクスモデルを提案する。
我々のフレームワークは、いくつかのデータセットに対して魅力的な結果をもたらす。
この作業が、現在のデファクトセマンティックセグメンテーションモデル設計を再考することを期待しています。
論文 参考訳(メタデータ) (2022-03-28T21:15:32Z) - Dual Prototypical Contrastive Learning for Few-shot Semantic
Segmentation [55.339405417090084]
本稿では,FSSタスクに適合する2つの特徴的コントラスト学習手法を提案する。
第一の考え方は、プロトタイプの特徴空間におけるクラス内距離を減少させながら、クラス間距離を増やすことで、プロトタイプをより差別的にすることである。
提案手法は,PASCAL-5iおよびCOCO-20iデータセット上で,最先端のFSS手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-09T08:14:50Z) - SCNet: Enhancing Few-Shot Semantic Segmentation by Self-Contrastive
Background Prototypes [56.387647750094466]
Few-shot セマンティックセマンティックセマンティクスは,クエリイメージ内の新規クラスオブジェクトを,アノテーション付きの例で分割することを目的としている。
先進的なソリューションのほとんどは、各ピクセルを学習した前景のプロトタイプに合わせることでセグメンテーションを行うメトリクス学習フレームワークを利用している。
このフレームワークは、前景プロトタイプのみとのサンプルペアの不完全な構築のために偏った分類に苦しんでいます。
論文 参考訳(メタデータ) (2021-04-19T11:21:47Z) - Deep Gaussian Processes for Few-Shot Segmentation [66.08463078545306]
少数ショットのセグメンテーションは難しい作業であり、いくつかの注釈付きサンプルから一般化可能な表現を抽出する必要がある。
ガウス過程(GP)回帰に基づく数ショット学習者定式化を提案する。
PASCAL-5i と COCO-20i では mIoU スコアが68.1 と 49.8 である。
論文 参考訳(メタデータ) (2021-03-30T17:56:32Z) - Part-aware Prototype Network for Few-shot Semantic Segmentation [50.581647306020095]
本稿では,プロトタイプ表現に基づく新規な数ショットセマンティックセマンティックセマンティクスフレームワークを提案する。
私たちのキーとなるアイデアは、全体論的なクラス表現を、部分認識型プロトタイプのセットに分解することです。
提案する部分認識型プロトタイプを生成・拡張する新しいグラフニューラルネットワークモデルを開発した。
論文 参考訳(メタデータ) (2020-07-13T11:03:09Z) - Prototype Refinement Network for Few-Shot Segmentation [6.777019450570474]
本稿では,プロトタイプ・リファインメント・ネットワーク(PRNet)を提案する。
まず、既知のクラスのサポートとクエリの両方からプロトタイプを双方向に抽出することを学ぶ。
PRNetは1ショット設定で13.1%という大きなマージンで既存の手法を大幅に上回っている。
論文 参考訳(メタデータ) (2020-02-10T07:06:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。