論文の概要: Visual Semantic Segmentation Based on Few/Zero-Shot Learning: An
Overview
- arxiv url: http://arxiv.org/abs/2211.08352v1
- Date: Sun, 13 Nov 2022 13:39:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 15:20:49.562219
- Title: Visual Semantic Segmentation Based on Few/Zero-Shot Learning: An
Overview
- Title(参考訳): 少数/ゼロショット学習に基づく視覚意味セグメンテーション:概要
- Authors: Wenqi Ren, Yang Tang, Qiyu Sun, Chaoqiang Zhao, Qing-Long Han
- Abstract要約: 本稿では,最近発表された2次元空間から3次元空間への視覚的セマンティックセグメンテーション手法について述べる。
3つの典型的なインスタンス化は、少数/ゼロショット学習と視覚的セマンティックセグメンテーションの相互作用を明らかにするのに関係している。
- 参考スコア(独自算出の注目度): 47.10687511208189
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual semantic segmentation aims at separating a visual sample into diverse
blocks with specific semantic attributes and identifying the category for each
block, and it plays a crucial role in environmental perception. Conventional
learning-based visual semantic segmentation approaches count heavily on
large-scale training data with dense annotations and consistently fail to
estimate accurate semantic labels for unseen categories. This obstruction spurs
a craze for studying visual semantic segmentation with the assistance of
few/zero-shot learning. The emergence and rapid progress of few/zero-shot
visual semantic segmentation make it possible to learn unseen-category from a
few labeled or zero-labeled samples, which advances the extension to practical
applications. Therefore, this paper focuses on the recently published
few/zero-shot visual semantic segmentation methods varying from 2D to 3D space
and explores the commonalities and discrepancies of technical settlements under
different segmentation circumstances. Specifically, the preliminaries on
few/zero-shot visual semantic segmentation, including the problem definitions,
typical datasets, and technical remedies, are briefly reviewed and discussed.
Moreover, three typical instantiations are involved to uncover the interactions
of few/zero-shot learning with visual semantic segmentation, including image
semantic segmentation, video object segmentation, and 3D segmentation. Finally,
the future challenges of few/zero-shot visual semantic segmentation are
discussed.
- Abstract(参考訳): ビジュアルセマンティックセグメンテーションは、視覚サンプルを特定のセマンティック属性を持つ多様なブロックに分割し、各ブロックのカテゴリを特定することを目的としており、環境認識において重要な役割を果たす。
従来の学習に基づく視覚的セマンティックセグメンテーションアプローチは、密集したアノテーションを持つ大規模トレーニングデータに大きく依存する。
この障害は、少数/ゼロショット学習の助けを借りて、視覚的セマンティックセグメンテーションの研究の急激な動きを引き起こす。
少数/ゼロショットの視覚的セマンティックセグメンテーションの出現と急速な進歩により、ラベル付きまたはゼロラベル付きサンプルから未知のカテゴリを学習することが可能になり、実用的な応用へと拡張が進む。
そこで本研究では,最近発表された2次元空間から3次元空間まで多様な視覚的セマンティックセグメンテーション手法に注目し,セグメンテーションの異なる状況下での技術的解決の共通性と相違について検討する。
具体的には、問題定義、典型的なデータセット、技術的改善を含む、ほとんどゼロショットの視覚的セマンティクスセグメンテーションの予備を簡潔にレビューし、議論する。
さらに、画像意味セグメンテーション、ビデオオブジェクトセグメンテーション、および3dセグメンテーションを含む、視覚意味セグメンテーションを含む、少数/ゼロショット学習のインタラクションを明らかにするために、3つの典型的なインスタンス化が関与している。
最後に,視覚的セマンティックセグメンテーションの課題について述べる。
関連論文リスト
- A Bottom-Up Approach to Class-Agnostic Image Segmentation [4.086366531569003]
本稿では,クラスに依存しないセグメンテーション問題に対処するためのボトムアップの新たな定式化を提案する。
我々は、その特徴空間の射影球に直接ネットワークを監督する。
ボトムアップの定式化は、クラスベースのセグメンテーション用に設計されたデータセットで訓練された場合でも、例外的な一般化能力を示す。
論文 参考訳(メタデータ) (2024-09-20T17:56:02Z) - Image Segmentation in Foundation Model Era: A Survey [99.19456390358211]
イメージセグメンテーションにおける現在の研究は、これらの進歩に関連する特徴、課題、解決策の詳細な分析を欠いている。
本調査は、FM駆動画像セグメンテーションを中心とした最先端の研究を徹底的にレビューすることで、このギャップを埋めようとしている。
現在の研究成果の広さを包括する,300以上のセグメンテーションアプローチの概要を概観する。
論文 参考訳(メタデータ) (2024-08-23T10:07:59Z) - Primitive Generation and Semantic-related Alignment for Universal
Zero-Shot Segmentation [13.001629605405954]
本研究では, トレーニングサンプルを使わずに, 新規カテゴリのパノプティクス, 例えば, セマンティックセマンティックセマンティックセマンティックセマンティクスを実現するために, ユニバーサルゼロショットセマンティクスについて検討する。
本稿では,意味空間と視覚空間を関連づけた未知のカテゴリの特徴を合成する生成モデルを提案する。
提案手法は、ゼロショットパノプティクスのセグメンテーション、インスタンスセグメンテーション、セマンティックセグメンテーションにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-06-19T17:59:16Z) - Exploring Open-Vocabulary Semantic Segmentation without Human Labels [76.15862573035565]
我々は、既存の事前学習された視覚言語モデル(VL)を利用して意味的セグメンテーションモデルを訓練するZeroSegを提案する。
ZeroSegは、VLモデルで学んだ視覚概念をセグメントトークンの集合に蒸留することでこれを克服し、それぞれが対象画像の局所化領域を要約する。
提案手法は,他のゼロショットセグメンテーション法と比較して,同じトレーニングデータを用いた場合と比較して,最先端性能を実現する。
論文 参考訳(メタデータ) (2023-06-01T08:47:06Z) - Open-world Semantic Segmentation via Contrasting and Clustering
Vision-Language Embedding [95.78002228538841]
本研究では,様々なオープンワールドカテゴリのセマンティックオブジェクトを高密度アノテーションを使わずにセマンティックオブジェクトのセマンティックオブジェクトのセマンティック化を学習するための,新しいオープンワールドセマンティックセマンティックセマンティックセマンティクスパイプラインを提案する。
提案手法は任意のカテゴリのオブジェクトを直接分割し、3つのベンチマークデータセット上でデータラベリングを必要とするゼロショットセグメンテーション法より優れている。
論文 参考訳(メタデータ) (2022-07-18T09:20:04Z) - TransFGU: A Top-down Approach to Fine-Grained Unsupervised Semantic
Segmentation [44.75300205362518]
教師なしセマンティックセグメンテーションは、手動のアノテーションを使わずに、低レベルの視覚的特徴の高レベルセマンティック表現を得ることを目的としている。
本稿では, 非常に複雑なシナリオにおける細粒度セグメンテーションのための, トップダウンの教師なしセグメンテーションフレームワークを提案する。
我々の結果は、トップダウンの教師なしセグメンテーションが、オブジェクト中心とシーン中心の両方のデータセットに対して堅牢であることを示している。
論文 参考訳(メタデータ) (2021-12-02T18:59:03Z) - Robust 3D Scene Segmentation through Hierarchical and Learnable
Part-Fusion [9.275156524109438]
3Dセマンティックセグメンテーションは、自律運転、ロボット工学、AR/VRといったいくつかのシーン理解アプリケーションのための基本的なビルディングブロックである。
従来の手法では、階層的で反復的な手法を用いて意味や事例情報を融合するが、文脈融合における学習性は欠如している。
本稿では,セグメンテーション・フュージョン(Seegment-Fusion)について述べる。
論文 参考訳(メタデータ) (2021-11-16T13:14:47Z) - Visual Boundary Knowledge Translation for Foreground Segmentation [57.32522585756404]
視覚境界知識を明示的に考慮したモデルの構築を試みており、未確認カテゴリのセグメンテーションにおけるトレーニングの労力を減らそうとしている。
数十のラベル付きサンプルをガイダンスとして使うだけで、Trans-Netは完全な教師付きメソッドと同等のクローズな結果が得られる。
論文 参考訳(メタデータ) (2021-08-01T07:10:25Z) - Part-aware Prototype Network for Few-shot Semantic Segmentation [50.581647306020095]
本稿では,プロトタイプ表現に基づく新規な数ショットセマンティックセマンティックセマンティクスフレームワークを提案する。
私たちのキーとなるアイデアは、全体論的なクラス表現を、部分認識型プロトタイプのセットに分解することです。
提案する部分認識型プロトタイプを生成・拡張する新しいグラフニューラルネットワークモデルを開発した。
論文 参考訳(メタデータ) (2020-07-13T11:03:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。