論文の概要: Prototype Refinement Network for Few-Shot Segmentation
- arxiv url: http://arxiv.org/abs/2002.03579v2
- Date: Sat, 9 May 2020 07:17:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 08:58:04.685740
- Title: Prototype Refinement Network for Few-Shot Segmentation
- Title(参考訳): Few-Shotセグメンテーションのためのプロトタイプリファインメントネットワーク
- Authors: Jinlu Liu and Yongqiang Qin
- Abstract要約: 本稿では,プロトタイプ・リファインメント・ネットワーク(PRNet)を提案する。
まず、既知のクラスのサポートとクエリの両方からプロトタイプを双方向に抽出することを学ぶ。
PRNetは1ショット設定で13.1%という大きなマージンで既存の手法を大幅に上回っている。
- 参考スコア(独自算出の注目度): 6.777019450570474
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot segmentation targets to segment new classes with few annotated
images provided. It is more challenging than traditional semantic segmentation
tasks that segment known classes with abundant annotated images. In this paper,
we propose a Prototype Refinement Network (PRNet) to attack the challenge of
few-shot segmentation. It firstly learns to bidirectionally extract prototypes
from both support and query images of the known classes. Furthermore, to
extract representative prototypes of the new classes, we use adaptation and
fusion for prototype refinement. The step of adaptation makes the model to
learn new concepts which is directly implemented by retraining. Prototype
fusion is firstly proposed which fuses support prototypes with query
prototypes, incorporating the knowledge from both sides. It is effective in
prototype refinement without importing extra learnable parameters. In this way,
the prototypes become more discriminative in low-data regimes. Experiments on
PASAL-$5^i$ and COCO-$20^i$ demonstrate the superiority of our method.
Especially on COCO-$20^i$, PRNet significantly outperforms existing methods by
a large margin of 13.1\% in 1-shot setting.
- Abstract(参考訳): 注釈付きイメージがほとんどない新しいクラスをセグメントするショットのセグメンテーションターゲットはほとんどない。
豊富な注釈付きイメージで既知のクラスを分割する従来のセマンティックセグメンテーションタスクよりも難しい。
本稿では,数発分節化の課題を攻撃するためのprnet(refinement network)の試作について述べる。
まず、既知のクラスのイメージのサポートと問い合わせの両方からプロトタイプを双方向に抽出することを学ぶ。
さらに,新しいクラスの代表的なプロトタイプを抽出するために,プロトタイプの改良に適応と融合を用いる。
適応のステップは、モデルに再トレーニングによって直接実装される新しい概念を学習させる。
最初にprototype fusionが提案され、両サイドの知識を組み込んだクエリプロトタイプでプロトタイプをサポートする。
学習可能な余分なパラメータをインポートすることなく、プロトタイプの改良に有効である。
このように、プロトタイプは低データ体制においてより差別的になる。
PASAL-$5^i$とCOCO-$20^i$の実験は,本手法の優位性を実証した。
特にCOCO-$20^i$では、PRNetは1ショット設定で13.1\%という大きなマージンで既存の手法を著しく上回っている。
関連論文リスト
- PrototypeFormer: Learning to Explore Prototype Relationships for
Few-shot Image Classification [19.93681871684493]
本稿では,従来の画像分類手法であるPrototypeFormerを提案する。
本稿では,プロトタイプ抽出モジュールの構築にトランスフォーマーアーキテクチャを用い,より識別性の高いクラス表現の抽出を目的とした。
その単純さにもかかわらず、ベルや笛を使わずに驚くほどうまく機能する。
論文 参考訳(メタデータ) (2023-10-05T12:56:34Z) - Rethinking Semantic Segmentation: A Prototype View [126.59244185849838]
学習不可能なプロトタイプをベースとした非パラメトリックセマンティックセマンティックセマンティクスモデルを提案する。
我々のフレームワークは、いくつかのデータセットに対して魅力的な結果をもたらす。
この作業が、現在のデファクトセマンティックセグメンテーションモデル設計を再考することを期待しています。
論文 参考訳(メタデータ) (2022-03-28T21:15:32Z) - Interpretable Image Classification with Differentiable Prototypes
Assignment [7.660883761395447]
クラスが共有するプロトタイプのプールを備えた解釈可能な画像分類モデルであるProtoPoolを紹介する。
プロトタイプを特定のクラスに完全に微分可能な割り当てを導入することで得られる。
我々は,CUB-200-2011とStanford Carsのデータセットにおいて,ProtoPoolが最先端の精度を得ることを示す。
論文 参考訳(メタデータ) (2021-12-06T10:03:32Z) - APANet: Adaptive Prototypes Alignment Network for Few-Shot Semantic
Segmentation [56.387647750094466]
Few-shotのセマンティックセマンティックセマンティクスは、指定されたクエリイメージに、ラベル付きサポートイメージのみで、新規クラスのオブジェクトをセグメントすることを目的としている。
ほとんどの高度なソリューションは、各クエリ機能を学習したクラス固有のプロトタイプにマッチさせることでセグメンテーションを実行するメトリクス学習フレームワークを利用している。
本稿では,クラス固有およびクラス非依存のプロトタイプを導入することで,適応型プロトタイプ表現を提案する。
論文 参考訳(メタデータ) (2021-11-24T04:38:37Z) - Dual Prototypical Contrastive Learning for Few-shot Semantic
Segmentation [55.339405417090084]
本稿では,FSSタスクに適合する2つの特徴的コントラスト学習手法を提案する。
第一の考え方は、プロトタイプの特徴空間におけるクラス内距離を減少させながら、クラス間距離を増やすことで、プロトタイプをより差別的にすることである。
提案手法は,PASCAL-5iおよびCOCO-20iデータセット上で,最先端のFSS手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-09T08:14:50Z) - Learning Class-level Prototypes for Few-shot Learning [24.65076873131432]
ほとんどラベル付きサンプルを使用して新しいカテゴリを認識することを目的としていない。
本稿では,少数のサポートデータから好適なプロトタイプを生成することを学べる,数ショット分類のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-25T06:33:52Z) - SCNet: Enhancing Few-Shot Semantic Segmentation by Self-Contrastive
Background Prototypes [56.387647750094466]
Few-shot セマンティックセマンティックセマンティクスは,クエリイメージ内の新規クラスオブジェクトを,アノテーション付きの例で分割することを目的としている。
先進的なソリューションのほとんどは、各ピクセルを学習した前景のプロトタイプに合わせることでセグメンテーションを行うメトリクス学習フレームワークを利用している。
このフレームワークは、前景プロトタイプのみとのサンプルペアの不完全な構築のために偏った分類に苦しんでいます。
論文 参考訳(メタデータ) (2021-04-19T11:21:47Z) - Adaptive Prototype Learning and Allocation for Few-Shot Segmentation [45.74646894293767]
SGC(Superpixel-Guided Clustering)とGPA(GPA)という2つの新しいモジュールを提案し、複数のプロトタイプ抽出と割り当てを行います。
sgcはパラメータフリーかつトレーニングフリーなアプローチであり、同様の特徴ベクトルを集約することで、より代表的なプロトタイプを抽出する。
gpaはより正確なガイダンスを提供するためにマッチしたプロトタイプを選択することができる。
本稿では,SGCとGPAを統合することで,オブジェクトのスケールや形状の変化に対応する軽量モデルであるAdaptive Superpixel-Guided Network (ASGNet)を提案する。
論文 参考訳(メタデータ) (2021-04-05T13:10:50Z) - Semantically Meaningful Class Prototype Learning for One-Shot Image
Semantic Segmentation [58.96902899546075]
ワンショットセマンティックイメージセグメンテーションは、1つの注釈付きイメージで新しいクラスのオブジェクト領域を分割することを目的としている。
最近の研究では、テスト時に予想される状況を模倣するために、エピソディクストレーニング戦略を採用している。
エピソードトレーニングにおいて,マルチクラスラベル情報を活用することを提案する。
ネットワークが各カテゴリに対してより意味のある機能を生成するように促すだろう。
論文 参考訳(メタデータ) (2021-02-22T12:07:35Z) - Part-aware Prototype Network for Few-shot Semantic Segmentation [50.581647306020095]
本稿では,プロトタイプ表現に基づく新規な数ショットセマンティックセマンティックセマンティクスフレームワークを提案する。
私たちのキーとなるアイデアは、全体論的なクラス表現を、部分認識型プロトタイプのセットに分解することです。
提案する部分認識型プロトタイプを生成・拡張する新しいグラフニューラルネットワークモデルを開発した。
論文 参考訳(メタデータ) (2020-07-13T11:03:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。