論文の概要: Dynamic Prototype Convolution Network for Few-Shot Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2204.10638v1
- Date: Fri, 22 Apr 2022 11:12:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-25 13:46:31.555272
- Title: Dynamic Prototype Convolution Network for Few-Shot Semantic Segmentation
- Title(参考訳): Few-Shot Semantic Segmentationのための動的プロトタイプ畳み込みネットワーク
- Authors: Jie Liu, Yanqi Bao, Guo-Sen Xie, Huan Xiong, Jan-Jakob Sonke,
Efstratios Gavves
- Abstract要約: 少数ショットセマンティックセグメンテーション(FSS)の鍵となる課題は、サポートとクエリ機能間の望ましいインタラクションをどのように調整するかである。
そこで本研究では,FSSの精度を高めるために,本発明のプロトタイプコンボリューションネットワーク(DPCN)を提案する。
当社のDPCNは、kショットFSS設定下でも柔軟で効率的です。
- 参考スコア(独自算出の注目度): 33.93192093090601
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The key challenge for few-shot semantic segmentation (FSS) is how to tailor a
desirable interaction among support and query features and/or their prototypes,
under the episodic training scenario. Most existing FSS methods implement such
support-query interactions by solely leveraging plain operations - e.g., cosine
similarity and feature concatenation - for segmenting the query objects.
However, these interaction approaches usually cannot well capture the intrinsic
object details in the query images that are widely encountered in FSS, e.g., if
the query object to be segmented has holes and slots, inaccurate segmentation
almost always happens. To this end, we propose a dynamic prototype convolution
network (DPCN) to fully capture the aforementioned intrinsic details for
accurate FSS. Specifically, in DPCN, a dynamic convolution module (DCM) is
firstly proposed to generate dynamic kernels from support foreground, then
information interaction is achieved by convolution operations over query
features using these kernels. Moreover, we equip DPCN with a support activation
module (SAM) and a feature filtering module (FFM) to generate pseudo mask and
filter out background information for the query images, respectively. SAM and
FFM together can mine enriched context information from the query features. Our
DPCN is also flexible and efficient under the k-shot FSS setting. Extensive
experiments on PASCAL-5i and COCO-20i show that DPCN yields superior
performances under both 1-shot and 5-shot settings.
- Abstract(参考訳): 少数ショットセマンティックセグメンテーション(FSS)の鍵となる課題は、エピソードトレーニングシナリオの下で、サポートとクエリ機能および/またはプロトタイプ間の望ましいインタラクションを調整する方法である。
ほとんどの既存のFSSメソッドは、クエリオブジェクトのセグメンテーションにコサイン類似性や機能結合といった平易な操作のみを活用することで、このようなサポートクエリーインタラクションを実装している。
しかしながら、これらの相互作用アプローチは、例えば、セグメント化すべきクエリオブジェクトが穴とスロットを持っている場合、ほとんど常に不正確なセグメンテーションが発生するような、FSSで広く遭遇するクエリイメージの固有のオブジェクト詳細をうまくキャプチャすることはできない。
そこで,本稿では,上記の本質的詳細をフルに把握する動的プロトタイプ畳み込みネットワーク (dpcn) を提案する。
具体的には、DPCNにおいて、動的畳み込みモジュール(DCM)が最初に提案され、サポートフォアグラウンドから動的カーネルを生成する。
さらに,DPCNにサポートアクティベーションモジュール (SAM) と特徴フィルタリングモジュール (FFM) を設け,擬似マスクを生成し,クエリ画像の背景情報をフィルタリングする。
SAMとFFMは、クエリ機能から豊富なコンテキスト情報を抽出することができる。
我々のDPCNはkショットFSS設定下でも柔軟で効率的です。
PASCAL-5iとCOCO-20iの大規模な実験により、DPCNは1ショットと5ショットの両方で優れた性能が得られることが示された。
関連論文リスト
- Dense Affinity Matching for Few-Shot Segmentation [83.65203917246745]
Few-Shot (FSS) は、新しいクラスイメージをいくつかのサンプルで分割することを目的としている。
本稿では,サポートクエリ間の相互作用を生かした密接な親和性マッチングフレームワークを提案する。
我々のフレームワークは0.68万のパラメータしか持たない異なる設定で非常に競争力のある性能を示す。
論文 参考訳(メタデータ) (2023-07-17T12:27:15Z) - Holistic Prototype Attention Network for Few-Shot VOS [74.25124421163542]
FSVOS(Few-shot Video Object segmentation)は、少数のサポートイメージに頼って、目に見えないクラスの動的オブジェクトをセグメントすることを目的としている。
本稿では,FSVOS を前進させるための総合プロトタイプアテンションネットワーク (HPAN) を提案する。
論文 参考訳(メタデータ) (2023-07-16T03:48:57Z) - Few-shot Semantic Segmentation with Support-induced Graph Convolutional
Network [28.46908214462594]
Few-shot semantic segmentation (FSS) は、いくつかの注釈付きサンプルで新しいオブジェクトのセグメンテーションを実現することを目的としている。
本稿では,クエリ画像中の遅延コンテキスト構造を明示的に抽出するために,Support-induced Graph Convolutional Network (SiGCN)を提案する。
論文 参考訳(メタデータ) (2023-01-09T08:00:01Z) - Prototype as Query for Few Shot Semantic Segmentation [7.380266341356485]
Few-shot Semantic (FSS) はクエリイメージに未表示のクラスを分割するために提案された。
本稿では,ProtoFormerと呼ばれるTransformerを基盤として,クエリ機能の空間的詳細をフルにキャプチャするフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-27T08:41:50Z) - Progressively Dual Prior Guided Few-shot Semantic Segmentation [57.37506990980975]
Few-shotのセマンティックセマンティックセマンティクスタスクは、いくつかのアノテーション付きサポートサンプルを使用して、クエリイメージのセマンティクスを実行することを目的としている。
本稿では,先進的に2重にガイドされた数発のセマンティックセマンティックセグメンテーションネットワークを提案する。
論文 参考訳(メタデータ) (2022-11-20T16:19:47Z) - Dynamic Focus-aware Positional Queries for Semantic Segmentation [94.6834904076914]
本稿では,動的焦点認識型位置情報クエリと呼ばれるセマンティックセグメンテーションのための,シンプルで効果的なクエリ設計を提案する。
我々のフレームワークはSOTAの性能を達成し、ResNet-50、Swin-T、Swin-Bのバックボーンによる1.1%、1.9%、および1.1%の単一スケールmIoUでMask2formerより優れています。
論文 参考訳(メタデータ) (2022-04-04T05:16:41Z) - Boosting Few-shot Semantic Segmentation with Transformers [81.43459055197435]
TRansformer-based Few-shot Semantic segmentation Method (TRFS)
我々のモデルは,グローバル・エンハンスメント・モジュール(GEM)とローカル・エンハンスメント・モジュール(LEM)の2つのモジュールから構成される。
論文 参考訳(メタデータ) (2021-08-04T20:09:21Z) - Deep feature selection-and-fusion for RGB-D semantic segmentation [8.831857715361624]
本研究は,fsfnet (unified and efficient feature selection and-fusion network) を提案する。
FSFNetは、マルチモダリティ情報の明示的な融合に使用される対称クロスモダリティ残留融合モジュールを含む。
最新の手法と比較すると,提案モデルが2つの公開データセットで競合性能を発揮できることを実験的に評価した。
論文 参考訳(メタデータ) (2021-05-10T04:02:32Z) - Searching Central Difference Convolutional Networks for Face
Anti-Spoofing [68.77468465774267]
顔認識システムにおいて、顔の反偽造(FAS)が重要な役割を担っている。
最先端のFASメソッドの多くは、スタック化された畳み込みと専門家が設計したネットワークに依存している。
ここでは、中央差分畳み込み(CDC)に基づくフレームレベルの新しいFAS手法を提案する。
論文 参考訳(メタデータ) (2020-03-09T12:48:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。