論文の概要: Self-Regularized Prototypical Network for Few-Shot Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2210.16829v1
- Date: Sun, 30 Oct 2022 12:43:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 17:45:44.710620
- Title: Self-Regularized Prototypical Network for Few-Shot Semantic Segmentation
- Title(参考訳): 少数ショットセマンティクスセグメンテーションのための自己正規化原型ネットワーク
- Authors: Henghui Ding, Hui Zhang, Xudong Jiang
- Abstract要約: 本稿では, プロトタイプ抽出に基づく自己正規化ネットワーク(SRPNet)を用いて, サポート情報のより良い活用を目的とした数ショットセグメンテーションに取り組む。
サポートセットの直接的かつ効果的なプロトタイプ正規化は、SRPNetで提案され、生成されたプロトタイプはサポートセット自身で評価され、正規化される。
提案するSRPNetは,1ショットと5ショットのセグメンテーションベンチマークにおいて,新しい最先端性能を実現する。
- 参考スコア(独自算出の注目度): 31.445316481839335
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The deep CNNs in image semantic segmentation typically require a large number
of densely-annotated images for training and have difficulties in generalizing
to unseen object categories. Therefore, few-shot segmentation has been
developed to perform segmentation with just a few annotated examples. In this
work, we tackle the few-shot segmentation using a self-regularized prototypical
network (SRPNet) based on prototype extraction for better utilization of the
support information. The proposed SRPNet extracts class-specific prototype
representations from support images and generates segmentation masks for query
images by a distance metric - the fidelity. A direct yet effective prototype
regularization on support set is proposed in SRPNet, in which the generated
prototypes are evaluated and regularized on the support set itself. The extent
to which the generated prototypes restore the support mask imposes an upper
limit on performance. The performance on the query set should never exceed the
upper limit no matter how complete the knowledge is generalized from support
set to query set. With the specific prototype regularization, SRPNet fully
exploits knowledge from the support and offers high-quality prototypes that are
representative for each semantic class and meanwhile discriminative for
different classes. The query performance is further improved by an iterative
query inference (IQI) module that combines a set of regularized prototypes. Our
proposed SRPNet achieves new state-of-art performance on 1-shot and 5-shot
segmentation benchmarks.
- Abstract(参考訳): イメージセマンティックセグメンテーションにおける深部CNNは通常、トレーニングのために多数の高密度な注釈付きイメージを必要とし、目に見えないオブジェクトカテゴリへの一般化が困難である。
そのため、いくつかの注釈付き例でセグメント化を行うために、少数ショットセグメンテーションが開発されている。
本研究では,プロトタイプ抽出に基づく自己正規化プロトタイプネットワーク(SRPNet)を用いて,サポート情報のより良い活用を目的とした数ショットセグメンテーションに取り組む。
提案したSRPNetは,サポート画像からクラス固有のプロトタイプ表現を抽出し,クエリ画像のセグメンテーションマスクを生成する。
サポートセットの直接的かつ効果的なプロトタイプ正規化は、SRPNetで提案され、生成されたプロトタイプはサポートセット自身で評価され、正規化される。
生成されたプロトタイプがサポートマスクを復元する程度では、パフォーマンスに上限が課される。
クエリセットのパフォーマンスは,サポートセットからクエリセットまで,知識がどの程度完成しても,上限を超えてはならない。
特定のプロトタイプの正規化によって、SRPNetはサポートからの知識を完全に活用し、各セマンティッククラスに代表される高品質なプロトタイプを提供する。
クエリ性能は、一連の正規化プロトタイプを組み合わせた反復クエリ推論(IQI)モジュールによってさらに改善される。
提案するSRPNetは1ショットと5ショットのセグメンテーションベンチマークで新しい最先端性能を実現する。
関連論文リスト
- Support-Query Prototype Fusion Network for Few-shot Medical Image Segmentation [7.6695642174485705]
少量のラベル付きデータを用いて、見知らぬクラスに一般化する写真学習は、重要な研究領域として現れている。
本稿では,SQPFNet(Support-Query Prototype Fusion Network)を提案する。
SABSとCMRの2つの公開データセットの評価結果は、SQPFNetが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-05-13T07:31:16Z) - Beyond the Prototype: Divide-and-conquer Proxies for Few-shot
Segmentation [63.910211095033596]
少ないショットのセグメンテーションは、少数の濃密なラベル付けされたサンプルのみを与えられた、目に見えないクラスオブジェクトをセグメンテーションすることを目的としている。
分割・分散の精神において, 単純かつ多目的な枠組みを提案する。
提案手法は、DCP(disvision-and-conquer proxies)と呼ばれるもので、適切な信頼性のある情報の開発を可能にする。
論文 参考訳(メタデータ) (2022-04-21T06:21:14Z) - APANet: Adaptive Prototypes Alignment Network for Few-Shot Semantic
Segmentation [56.387647750094466]
Few-shotのセマンティックセマンティックセマンティクスは、指定されたクエリイメージに、ラベル付きサポートイメージのみで、新規クラスのオブジェクトをセグメントすることを目的としている。
ほとんどの高度なソリューションは、各クエリ機能を学習したクラス固有のプロトタイプにマッチさせることでセグメンテーションを実行するメトリクス学習フレームワークを利用している。
本稿では,クラス固有およびクラス非依存のプロトタイプを導入することで,適応型プロトタイプ表現を提案する。
論文 参考訳(メタデータ) (2021-11-24T04:38:37Z) - SCNet: Enhancing Few-Shot Semantic Segmentation by Self-Contrastive
Background Prototypes [56.387647750094466]
Few-shot セマンティックセマンティックセマンティクスは,クエリイメージ内の新規クラスオブジェクトを,アノテーション付きの例で分割することを目的としている。
先進的なソリューションのほとんどは、各ピクセルを学習した前景のプロトタイプに合わせることでセグメンテーションを行うメトリクス学習フレームワークを利用している。
このフレームワークは、前景プロトタイプのみとのサンプルペアの不完全な構築のために偏った分類に苦しんでいます。
論文 参考訳(メタデータ) (2021-04-19T11:21:47Z) - Semantically Meaningful Class Prototype Learning for One-Shot Image
Semantic Segmentation [58.96902899546075]
ワンショットセマンティックイメージセグメンテーションは、1つの注釈付きイメージで新しいクラスのオブジェクト領域を分割することを目的としている。
最近の研究では、テスト時に予想される状況を模倣するために、エピソディクストレーニング戦略を採用している。
エピソードトレーニングにおいて,マルチクラスラベル情報を活用することを提案する。
ネットワークが各カテゴリに対してより意味のある機能を生成するように促すだろう。
論文 参考訳(メタデータ) (2021-02-22T12:07:35Z) - Part-aware Prototype Network for Few-shot Semantic Segmentation [50.581647306020095]
本稿では,プロトタイプ表現に基づく新規な数ショットセマンティックセマンティックセマンティクスフレームワークを提案する。
私たちのキーとなるアイデアは、全体論的なクラス表現を、部分認識型プロトタイプのセットに分解することです。
提案する部分認識型プロトタイプを生成・拡張する新しいグラフニューラルネットワークモデルを開発した。
論文 参考訳(メタデータ) (2020-07-13T11:03:09Z) - CRNet: Cross-Reference Networks for Few-Shot Segmentation [59.85183776573642]
少ないショットセグメンテーションは、少数のトレーニングイメージを持つ新しいクラスに一般化できるセグメンテーションモデルを学ぶことを目的としている。
相互参照機構により、我々のネットワークは2つの画像に共起する物体をよりよく見つけることができる。
PASCAL VOC 2012データセットの実験は、我々のネットワークが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2020-03-24T04:55:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。