論文の概要: Visual Boundary Knowledge Translation for Foreground Segmentation
- arxiv url: http://arxiv.org/abs/2108.00379v1
- Date: Sun, 1 Aug 2021 07:10:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-04 08:18:10.822346
- Title: Visual Boundary Knowledge Translation for Foreground Segmentation
- Title(参考訳): 前景セグメンテーションのための視覚境界知識翻訳
- Authors: Zunlei Feng, Lechao Cheng, Xinchao Wang, Xiang Wang, Yajie Liu,
Xiangtong Du, Mingli Song
- Abstract要約: 視覚境界知識を明示的に考慮したモデルの構築を試みており、未確認カテゴリのセグメンテーションにおけるトレーニングの労力を減らそうとしている。
数十のラベル付きサンプルをガイダンスとして使うだけで、Trans-Netは完全な教師付きメソッドと同等のクローズな結果が得られる。
- 参考スコア(独自算出の注目度): 57.32522585756404
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When confronted with objects of unknown types in an image, humans can
effortlessly and precisely tell their visual boundaries. This recognition
mechanism and underlying generalization capability seem to contrast to
state-of-the-art image segmentation networks that rely on large-scale
category-aware annotated training samples. In this paper, we make an attempt
towards building models that explicitly account for visual boundary knowledge,
in hope to reduce the training effort on segmenting unseen categories.
Specifically, we investigate a new task termed as Boundary Knowledge
Translation (BKT). Given a set of fully labeled categories, BKT aims to
translate the visual boundary knowledge learned from the labeled categories, to
a set of novel categories, each of which is provided only a few labeled
samples. To this end, we propose a Translation Segmentation Network
(Trans-Net), which comprises a segmentation network and two boundary
discriminators. The segmentation network, combined with a boundary-aware
self-supervised mechanism, is devised to conduct foreground segmentation, while
the two discriminators work together in an adversarial manner to ensure an
accurate segmentation of the novel categories under light supervision.
Exhaustive experiments demonstrate that, with only tens of labeled samples as
guidance, Trans-Net achieves close results on par with fully supervised
methods.
- Abstract(参考訳): 画像の中の未知のタイプのオブジェクトと向き合うと、人間は視覚の境界を無力かつ正確に伝えることができる。
この認識機構と基礎となる一般化能力は、大規模カテゴリアノテートトレーニングサンプルに依存する最先端の画像セグメンテーションネットワークとは対照的である。
本稿では,視覚境界知識を明示的に考慮したモデルの構築を試みた。
具体的には,境界知識翻訳(BKT)と呼ばれる新しいタスクについて検討する。
完全なラベル付きカテゴリのセットを与えられたBKTは、ラベル付きカテゴリから学んだ視覚境界知識を、ラベル付きサンプルのみを提供する新しいカテゴリのセットに変換することを目的としている。
そこで本研究では,セグメンテーションネットワークと2つの境界識別器からなる翻訳セグメンテーションネットワーク(Trans-Net)を提案する。
境界認識自己監視機構と組み合わされたセグメンテーションネットワークは、前景セグメンテーションを行うように考案され、一方2つの判別器は、光監督下で新しいカテゴリの正確なセグメンテーションを保証するために、逆向きに協調して動作する。
探索実験では、数十のラベル付きサンプルのみをガイダンスとして、Trans-Netは完全な教師付き手法と同等に密接な結果が得られることを示した。
関連論文リスト
- TAX: Tendency-and-Assignment Explainer for Semantic Segmentation with
Multi-Annotators [31.36818611460614]
Tendency-and-Assignment Explainer (TAX) はアノテータと割り当てレベルで解釈性を提供するように設計されている。
我々のTAXは、同等の性能を持つ最先端のネットワークアーキテクチャに適用可能であることを示す。
論文 参考訳(メタデータ) (2023-02-19T12:40:22Z) - Learning to Detect Semantic Boundaries with Image-level Class Labels [14.932318540666548]
本稿では,画像レベルのクラスラベルを教師として用いたセマンティック境界検出の学習の試みについて述べる。
対象クラスの粗い領域を画像分類網の注意点から推定することから始める。
我々は、不確実な監視の下でも、セマンティックバウンダリを確実に見積もることができる新しいニューラルネットワークアーキテクチャを設計する。
論文 参考訳(メタデータ) (2022-12-15T01:56:22Z) - Open-world Semantic Segmentation via Contrasting and Clustering
Vision-Language Embedding [95.78002228538841]
本研究では,様々なオープンワールドカテゴリのセマンティックオブジェクトを高密度アノテーションを使わずにセマンティックオブジェクトのセマンティックオブジェクトのセマンティック化を学習するための,新しいオープンワールドセマンティックセマンティックセマンティックセマンティクスパイプラインを提案する。
提案手法は任意のカテゴリのオブジェクトを直接分割し、3つのベンチマークデータセット上でデータラベリングを必要とするゼロショットセグメンテーション法より優れている。
論文 参考訳(メタデータ) (2022-07-18T09:20:04Z) - A Survey on Label-efficient Deep Segmentation: Bridging the Gap between
Weak Supervision and Dense Prediction [115.9169213834476]
本稿では,ラベル効率の高いセグメンテーション手法について概説する。
まず,様々な種類の弱いラベルによって提供される監督に従って,これらの手法を整理する分類法を開発する。
次に,既存のラベル効率のセグメンテーション手法を統一的な視点から要約する。
論文 参考訳(メタデータ) (2022-07-04T06:21:01Z) - Boundary Knowledge Translation based Reference Semantic Segmentation [62.60078935335371]
視覚境界知識翻訳を行うための参照参照セグメンテーションネットワーク(Ref-Net)を導入する。
人間の認識機構にインスパイアされたRTMTMは、参照オブジェクトの特徴に基づいて、同じカテゴリオブジェクトをセグメント化するだけに考案されている。
Ref-Netは、数十の細かい注釈付きサンプルをガイダンスとして、完全に教師された6つのデータセットのメソッドと同等の結果を得る。
論文 参考訳(メタデータ) (2021-08-01T07:40:09Z) - Novel Visual Category Discovery with Dual Ranking Statistics and Mutual
Knowledge Distillation [16.357091285395285]
我々は、新しいクラスから異なるセマンティックパーティションに非ラベリングなイメージをグループ化する問題に取り組む。
これは従来の半教師付き学習よりも現実的で難しい設定です。
本稿では,局所的な部分レベル情報に焦点をあてた2分岐学習フレームワークと,全体特性に焦点をあてた2分岐学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-07T17:14:40Z) - Weakly-Supervised Semantic Segmentation via Sub-category Exploration [73.03956876752868]
我々は、オブジェクトの他の部分に注意を払うために、ネットワークを強制する単純で効果的なアプローチを提案する。
具体的には、画像の特徴をクラスタリングして、アノテーション付き親クラスごとに擬似サブカテゴリラベルを生成する。
提案手法の有効性を検証し,提案手法が最先端手法に対して良好に機能することを示す。
論文 参考訳(メタデータ) (2020-08-03T20:48:31Z) - Commonality-Parsing Network across Shape and Appearance for Partially
Supervised Instance Segmentation [71.59275788106622]
そこで本稿では,マスク付分類から新しい分類へ一般化可能な,クラス非依存の共通性について考察する。
本モデルでは,COCOデータセット上のサンプルセグメンテーションにおける部分教師付き設定と少数ショット設定の両方において,最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2020-07-24T07:23:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。