論文の概要: Beyond the Prototype: Divide-and-conquer Proxies for Few-shot
Segmentation
- arxiv url: http://arxiv.org/abs/2204.09903v1
- Date: Thu, 21 Apr 2022 06:21:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-22 13:55:12.588135
- Title: Beyond the Prototype: Divide-and-conquer Proxies for Few-shot
Segmentation
- Title(参考訳): プロトタイプを超えて:Few-shotセグメンテーションのためのDivide-and-conquerプロキシ
- Authors: Chunbo Lang, Binfei Tu, Gong Cheng, Junwei Han
- Abstract要約: 少ないショットのセグメンテーションは、少数の濃密なラベル付けされたサンプルのみを与えられた、目に見えないクラスオブジェクトをセグメンテーションすることを目的としている。
分割・分散の精神において, 単純かつ多目的な枠組みを提案する。
提案手法は、DCP(disvision-and-conquer proxies)と呼ばれるもので、適切な信頼性のある情報の開発を可能にする。
- 参考スコア(独自算出の注目度): 63.910211095033596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot segmentation, which aims to segment unseen-class objects given only
a handful of densely labeled samples, has received widespread attention from
the community. Existing approaches typically follow the prototype learning
paradigm to perform meta-inference, which fails to fully exploit the underlying
information from support image-mask pairs, resulting in various segmentation
failures, e.g., incomplete objects, ambiguous boundaries, and distractor
activation. To this end, we propose a simple yet versatile framework in the
spirit of divide-and-conquer. Specifically, a novel self-reasoning scheme is
first implemented on the annotated support image, and then the coarse
segmentation mask is divided into multiple regions with different properties.
Leveraging effective masked average pooling operations, a series of
support-induced proxies are thus derived, each playing a specific role in
conquering the above challenges. Moreover, we devise a unique parallel decoder
structure that integrates proxies with similar attributes to boost the
discrimination power. Our proposed approach, named divide-and-conquer proxies
(DCP), allows for the development of appropriate and reliable information as a
guide at the "episode" level, not just about the object cues themselves.
Extensive experiments on PASCAL-5i and COCO-20i demonstrate the superiority of
DCP over conventional prototype-based approaches (up to 5~10% on average),
which also establishes a new state-of-the-art. Code is available at
github.com/chunbolang/DCP.
- Abstract(参考訳): 少数の濃密なラベル付けされたサンプルしか与えられていない未確認のオブジェクトをセグメント化することを目的としているFew-shotのセグメンテーションは、コミュニティから広く注目を集めている。
既存のアプローチは、通常、メタ推論を実行するためのプロトタイプ学習パラダイムに従い、画像マスクペアのサポートから基礎となる情報を十分に活用できないため、不完全なオブジェクト、曖昧な境界、邪魔者アクティベーションなど、さまざまなセグメンテーション障害が発生する。
この目的のために, 分割・分散の精神を生かした, シンプルかつ多目的なフレームワークを提案する。
具体的には、注釈付き支持画像上に新しい自己推論方式を最初に実装し、その後、粗いセグメンテーションマスクを異なる特性を持つ複数の領域に分割する。
効果的なマスク平均プーリング操作を利用することで、サポートによって引き起こされる一連のプロキシが導出され、それぞれが上記の課題の克服に特定の役割を果たす。
さらに,類似の属性を持つプロキシを統合して識別力を高める一意な並列デコーダ構造を考案する。
提案手法はDCP(disvision-and-conquer proxies)と呼ばれるもので,オブジェクト自身だけでなく,"episode"レベルでのガイドとして,適切な信頼性の高い情報の開発を可能にする。
PASCAL-5iとCOCO-20iの大規模な実験は、従来のプロトタイプベースのアプローチ(平均で最大5〜10%)よりもDCPの方が優れていることを示す。
コードはgithub.com/chunbolang/DCPで入手できる。
関連論文リスト
- Pixel-Level Domain Adaptation: A New Perspective for Enhancing Weakly Supervised Semantic Segmentation [13.948425538725138]
画素単位の領域不変性を学習する際のモデルとして,Pixel-Level Domain Adaptation (PLDA)法を提案する。
我々は,幅広い環境下でのアプローチの有効性を実験的に実証した。
論文 参考訳(メタデータ) (2024-08-04T14:14:54Z) - Uncovering Prototypical Knowledge for Weakly Open-Vocabulary Semantic
Segmentation [59.37587762543934]
本稿では,弱開語彙セマンティックセマンティックセグメンテーション(WOVSS)の問題点について検討する。
既存の方法は、グループトークンの使用に関する粒度の矛盾に悩まされる。
マルチモーダル正規化を組み込んだプロトタイプ誘導ネットワーク(PGSeg)を提案する。
論文 参考訳(メタデータ) (2023-10-29T13:18:00Z) - Progressively Dual Prior Guided Few-shot Semantic Segmentation [57.37506990980975]
Few-shotのセマンティックセマンティックセマンティクスタスクは、いくつかのアノテーション付きサポートサンプルを使用して、クエリイメージのセマンティクスを実行することを目的としている。
本稿では,先進的に2重にガイドされた数発のセマンティックセマンティックセグメンテーションネットワークを提案する。
論文 参考訳(メタデータ) (2022-11-20T16:19:47Z) - Weakly Supervised Semantic Segmentation via Progressive Patch Learning [39.87150496277798]
分類の局所的詳細抽出を改善するために「プログレッシブ・パッチ・ラーニング」アプローチを提案する。
は、機能マップをパッチに分解し、最終的なアグリゲーションの前に各ローカルパッチを独立して処理する。
プログレッシブ・パッチ・ラーニング(Progressive Patch Learning)は、特徴の破壊とパッチ・ラーニングをさらにプログレッシブな方法で多段階の粒度に拡張する。
論文 参考訳(メタデータ) (2022-09-16T09:54:17Z) - Prototypical Cross-Attention Networks for Multiple Object Tracking and
Segmentation [95.74244714914052]
複数のオブジェクトのトラッキングとセグメンテーションには、与えられたクラスのセットに属するオブジェクトを検出し、追跡し、セグメンテーションする必要がある。
オンライン上でリッチ・テンポラル情報を活用するプロトタイプ・クロス・アテンション・ネットワーク(PCAN)を提案する。
PCANは、Youtube-VISとBDD100Kデータセットで、現在のビデオインスタンス追跡とセグメンテーションコンテストの勝者を上回っている。
論文 参考訳(メタデータ) (2021-06-22T17:57:24Z) - SCNet: Enhancing Few-Shot Semantic Segmentation by Self-Contrastive
Background Prototypes [56.387647750094466]
Few-shot セマンティックセマンティックセマンティクスは,クエリイメージ内の新規クラスオブジェクトを,アノテーション付きの例で分割することを目的としている。
先進的なソリューションのほとんどは、各ピクセルを学習した前景のプロトタイプに合わせることでセグメンテーションを行うメトリクス学習フレームワークを利用している。
このフレームワークは、前景プロトタイプのみとのサンプルペアの不完全な構築のために偏った分類に苦しんでいます。
論文 参考訳(メタデータ) (2021-04-19T11:21:47Z) - Self-Guided and Cross-Guided Learning for Few-Shot Segmentation [12.899804391102435]
単発セグメンテーションのための自己誘導学習手法を提案する。
注釈付き支持画像の初期予測を行うことにより、被覆および検出された前景領域を一次および補助支持ベクトルに符号化する。
プライマリサポートベクターと補助サポートベクターの両方を集約することで、クエリイメージ上でより良いセグメンテーション性能が得られます。
論文 参考訳(メタデータ) (2021-03-30T07:36:41Z) - Part-aware Prototype Network for Few-shot Semantic Segmentation [50.581647306020095]
本稿では,プロトタイプ表現に基づく新規な数ショットセマンティックセマンティックセマンティクスフレームワークを提案する。
私たちのキーとなるアイデアは、全体論的なクラス表現を、部分認識型プロトタイプのセットに分解することです。
提案する部分認識型プロトタイプを生成・拡張する新しいグラフニューラルネットワークモデルを開発した。
論文 参考訳(メタデータ) (2020-07-13T11:03:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。