論文の概要: A Joint Framework Towards Class-aware and Class-agnostic Alignment for
Few-shot Segmentation
- arxiv url: http://arxiv.org/abs/2211.01310v1
- Date: Wed, 2 Nov 2022 17:33:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-11-03 13:37:05.400691
- Title: A Joint Framework Towards Class-aware and Class-agnostic Alignment for
Few-shot Segmentation
- Title(参考訳): 少数ショットセグメンテーションのためのクラス認識とクラス非依存アライメントのための統合フレームワーク
- Authors: Kai Huang and Mingfei Cheng and Yang Wang and Bochen Wang and Ye Xi
and Feigege Wang and Peng Chen
- Abstract要約: Few-shotのセグメンテーションは、いくつかの注釈付きサポートイメージが与えられた未確認クラスのオブジェクトをセグメントすることを目的としている。
既存のほとんどのメソッドは、クエリ機能を独立したサポートプロトタイプで縫い付け、混合機能をデコーダに供給することでクエリイメージを分割する。
セグメンテーションを容易にするために,より価値の高いクラス認識とクラス非依存アライメントガイダンスを組み合わせた共同フレームワークを提案する。
- 参考スコア(独自算出の注目度): 11.47479526463185
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Few-shot segmentation (FSS) aims to segment objects of unseen classes given
only a few annotated support images. Most existing methods simply stitch query
features with independent support prototypes and segment the query image by
feeding the mixed features to a decoder. Although significant improvements have
been achieved, existing methods are still face class biases due to class
variants and background confusion. In this paper, we propose a joint framework
that combines more valuable class-aware and class-agnostic alignment guidance
to facilitate the segmentation. Specifically, we design a hybrid alignment
module which establishes multi-scale query-support correspondences to mine the
most relevant class-aware information for each query image from the
corresponding support features. In addition, we explore utilizing base-classes
knowledge to generate class-agnostic prior mask which makes a distinction
between real background and foreground by highlighting all object regions,
especially those of unseen classes. By jointly aggregating class-aware and
class-agnostic alignment guidance, better segmentation performances are
obtained on query images. Extensive experiments on PASCAL-$5^i$ and COCO-$20^i$
datasets demonstrate that our proposed joint framework performs better,
especially on the 1-shot setting.
- Abstract(参考訳): Few-shot segmentation (FSS) は、いくつかのアノテーション付きサポートイメージが与えられた未確認クラスのオブジェクトをセグメントすることを目的としている。
既存のほとんどのメソッドは、クエリ機能を独立したサポートプロトタイプで縫い付け、混合機能をデコーダに供給することでクエリイメージを分割する。
大幅な改善がなされているが、既存のメソッドはクラス変異とバックグラウンドの混乱のために、まだクラスバイアスに直面している。
本稿では,より価値の高いクラス認識とクラス認識的アライメントガイダンスを組み合わせてセグメンテーションを容易にする共同フレームワークを提案する。
具体的には,マルチスケールの問合せ支援対応を確立するハイブリッドアライメントモジュールを設計し,対応するサポート機能から各問合せ画像に対する最も関連するクラス認識情報を抽出する。
さらに,すべての対象領域,特に見当たらないクラスを強調することで,実際の背景と前景を区別するクラス非依存の事前マスクを生成するために,ベースクラス知識を活用することを検討する。
クラス認識とクラス非依存アライメントガイダンスを併用することにより,クエリ画像上でのセグメンテーション性能が向上する。
PASCAL-$5^i$およびCOCO-$20^i$データセットの大規模な実験により,提案したジョイントフレームワークが特に1ショット設定でより優れた性能を示すことが示された。
関連論文リスト
- Boosting Semantic Segmentation from the Perspective of Explicit Class
Embeddings [19.997929884477628]
クラス埋め込みのメカニズムを探求し、クラスマスクに基づいてより明示的で意味のあるクラス埋め込みを生成することができるという知見を得る。
マルチステージ画像特徴との相互作用において,クラス埋め込みを明示的に獲得・拡張する新たなセグメンテーションパラダイムであるECENetを提案する。
ECENetはADE20Kデータセットよりもはるかに少ない計算コストでパフォーマンスを向上し、PASCAL-Contextデータセット上で新たな最先端結果を達成する。
論文 参考訳(メタデータ) (2023-08-24T16:16:10Z) - Masked Cross-image Encoding for Few-shot Segmentation [16.445813548503708]
Few-shot segmentation (FSS) は、注釈付き画像の限られた数だけを用いて、未確認クラスのピクセルワイズラベルを推測することを目的とした、密度の高い予測タスクである。
本研究では,オブジェクトの詳細を記述した共通視覚特性をキャプチャし,特徴の相互作用を高める双方向画像間の依存関係を学習する,Masked Cross-Image MCEという共同学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-22T05:36:39Z) - APANet: Adaptive Prototypes Alignment Network for Few-Shot Semantic
Segmentation [56.387647750094466]
Few-shotのセマンティックセマンティックセマンティクスは、指定されたクエリイメージに、ラベル付きサポートイメージのみで、新規クラスのオブジェクトをセグメントすることを目的としている。
ほとんどの高度なソリューションは、各クエリ機能を学習したクラス固有のプロトタイプにマッチさせることでセグメンテーションを実行するメトリクス学習フレームワークを利用している。
本稿では,クラス固有およびクラス非依存のプロトタイプを導入することで,適応型プロトタイプ表現を提案する。
論文 参考訳(メタデータ) (2021-11-24T04:38:37Z) - MFNet: Multi-class Few-shot Segmentation Network with Pixel-wise Metric
Learning [34.059257121606336]
この研究は、まだほとんど探索されていない分野である少数ショットセマンティックセマンティックセグメンテーションに焦点を当てている。
まず,マルチウェイ符号化とデコードアーキテクチャを提案する。このアーキテクチャは,マルチスケールクエリ情報とマルチクラスサポート情報を1つのクエリ支援埋め込みに効果的に融合する。
標準ベンチマーク PASCAL-5i と COCO-20i による実験により, 数発のセグメンテーションにおいて, 本手法の利点が明らかに示された。
論文 参考訳(メタデータ) (2021-10-30T11:37:36Z) - Learning Meta-class Memory for Few-Shot Semantic Segmentation [90.28474742651422]
全てのクラスで共有可能なメタ情報であるメタクラスの概念を導入する。
本稿では,メタクラスメモリをベースとした少ショットセグメンテーション手法 (MM-Net) を提案する。
提案したMM-Netは1ショット設定でCOCOデータセット上で37.5%のmIoUを達成する。
論文 参考訳(メタデータ) (2021-08-06T06:29:59Z) - SCNet: Enhancing Few-Shot Semantic Segmentation by Self-Contrastive
Background Prototypes [56.387647750094466]
Few-shot セマンティックセマンティックセマンティクスは,クエリイメージ内の新規クラスオブジェクトを,アノテーション付きの例で分割することを目的としている。
先進的なソリューションのほとんどは、各ピクセルを学習した前景のプロトタイプに合わせることでセグメンテーションを行うメトリクス学習フレームワークを利用している。
このフレームワークは、前景プロトタイプのみとのサンプルペアの不完全な構築のために偏った分類に苦しんでいます。
論文 参考訳(メタデータ) (2021-04-19T11:21:47Z) - Semantically Meaningful Class Prototype Learning for One-Shot Image
Semantic Segmentation [58.96902899546075]
ワンショットセマンティックイメージセグメンテーションは、1つの注釈付きイメージで新しいクラスのオブジェクト領域を分割することを目的としている。
最近の研究では、テスト時に予想される状況を模倣するために、エピソディクストレーニング戦略を採用している。
エピソードトレーニングにおいて,マルチクラスラベル情報を活用することを提案する。
ネットワークが各カテゴリに対してより意味のある機能を生成するように促すだろう。
論文 参考訳(メタデータ) (2021-02-22T12:07:35Z) - BriNet: Towards Bridging the Intra-class and Inter-class Gaps in
One-Shot Segmentation [84.2925550033094]
ほとんどショットのセグメンテーションは、限られたトレーニングサンプルで見えないオブジェクトインスタンスをセグメンテーションするためのモデルの一般化に焦点を当てている。
本稿では,クエリの抽出した特徴とサポートイメージのギャップを埋めるフレームワーク BriNet を提案する。
本フレームワークの有効性は,他の競合手法よりも優れる実験結果によって実証された。
論文 参考訳(メタデータ) (2020-08-14T07:45:50Z) - A Few-Shot Sequential Approach for Object Counting [63.82757025821265]
画像中のオブジェクトに逐次出席するクラスアテンション機構を導入し,それらの特徴を抽出する。
提案手法は点レベルのアノテーションに基づいて訓練され,モデルのクラス依存的・クラス依存的側面を乱す新しい損失関数を用いる。
本稿では,FSODやMS COCOなど,さまざまなオブジェクトカウント/検出データセットについて報告する。
論文 参考訳(メタデータ) (2020-07-03T18:23:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。