論文の概要: Exemplar-Based Open-Set Panoptic Segmentation Network
- arxiv url: http://arxiv.org/abs/2105.08336v2
- Date: Wed, 19 May 2021 00:38:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-20 11:26:57.191658
- Title: Exemplar-Based Open-Set Panoptic Segmentation Network
- Title(参考訳): Exemplar-based Open-Set Panoptic Segmentation Network
- Authors: Jaedong Hwang, Seoung Wug Oh, Joon-Young Lee, Bohyung Han
- Abstract要約: 我々は、オープンワールドにパン光学セグメンテーションを拡張し、オープンセットのパン光学セグメンテーション(OPS)タスクを導入する。
本研究では,タスクの実践的課題を調査し,既存のデータセットであるCOCO上にベンチマークを構築する。
本稿では,エスペクティブ理論に着想を得た,エスペクティブ・ベース・オープン・セット・パノプティブ・セグメンテーション・ネットワーク(EOPSN)を提案する。
- 参考スコア(独自算出の注目度): 79.99748041746592
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We extend panoptic segmentation to the open-world and introduce an open-set
panoptic segmentation (OPS) task. This task requires performing panoptic
segmentation for not only known classes but also unknown ones that have not
been acknowledged during training. We investigate the practical challenges of
the task and construct a benchmark on top of an existing dataset, COCO. In
addition, we propose a novel exemplar-based open-set panoptic segmentation
network (EOPSN) inspired by exemplar theory. Our approach identifies a new
class based on exemplars, which are identified by clustering and employed as
pseudo-ground-truths. The size of each class increases by mining new exemplars
based on the similarities to the existing ones associated with the class. We
evaluate EOPSN on the proposed benchmark and demonstrate the effectiveness of
our proposals. The primary goal of our work is to draw the attention of the
community to the recognition in the open-world scenarios. The implementation of
our algorithm is available on the project webpage:
https://cv.snu.ac.kr/research/EOPSN.
- Abstract(参考訳): 我々は、panoptic segmentationをopen-worldに拡張し、open-set panoptic segmentation (ops)タスクを導入する。
このタスクは、既知のクラスだけでなく、トレーニング中に認識されていない未知のクラスに対しても、単眼セグメンテーションを実行する必要がある。
タスクの実践的課題を調査し,既存のデータセットであるCOCO上にベンチマークを構築する。
さらに,実証理論に触発された新しいオープン・セット・パノプティクス・セグメンテーション・ネットワーク(EOPSN)を提案する。
提案手法は,クラスタ化によって識別され,疑似グラウンドルーツとして使用されるexemplarsに基づく新しいクラスを識別する。
各クラスのサイズは、クラスに関連する既存のクラスと類似性に基づいて、新しい例をマイニングすることによって増加する。
提案するベンチマークでeopsnを評価し,提案の有効性を実証する。
私たちの仕事の第一の目的は、オープンワールドのシナリオにおける認識にコミュニティの注意を引き付けることです。
我々のアルゴリズムの実装は、プロジェクトのWebページで利用可能である。
関連論文リスト
- Open-world Instance Segmentation: Top-down Learning with Bottom-up Supervision [83.57156368908836]
ボトムアップとトップダウンオープンワールド(UDOS)と呼ばれるオープンワールドのインスタンスセグメンテーションのための新しいアプローチを提案する。
UDOSはまず、ボトムアップセグメンテーションから弱い監督で訓練されたトップダウンネットワークを使用して、オブジェクトの一部を予測する。
UDOSは、トップダウンアーキテクチャのスピードと効率と、ボトムアップの監視からカテゴリを見落とせる能力の両方を享受しています。
論文 参考訳(メタデータ) (2023-03-09T18:55:03Z) - ElC-OIS: Ellipsoidal Clustering for Open-World Instance Segmentation on
LiDAR Data [13.978966783993146]
オープンワールドインスタンス(OIS)は、現在の観察に現れるすべてのオブジェクトインスタンスを正確に分割することを目的とした、難しいタスクである。
これは、堅牢な自律ナビゲーションのような安全クリティカルなアプリケーションにとって重要である。
我々は、LiDARポイントクラウドのための柔軟で効果的なOISフレームワークを提案し、既知のインスタンスと未知のインスタンスの両方を正確に分割できる。
論文 参考訳(メタデータ) (2023-03-08T03:22:11Z) - Open-World Instance Segmentation: Exploiting Pseudo Ground Truth From
Learned Pairwise Affinity [59.1823948436411]
我々は、マスク提案のための新しいアプローチ、ジェネリックグループネットワーク(GGN)を提案する。
我々のアプローチは、ピクセル親和性の局所測定とインスタンスレベルのマスク監視を組み合わせることで、データの多様性が許容するほど汎用的なモデルを設計したトレーニングレギュレータを生成する。
論文 参考訳(メタデータ) (2022-04-12T22:37:49Z) - GOSS: Towards Generalized Open-set Semantic Segmentation [38.00665104750745]
我々は、GOSS(Generalized Open-set Semantic)と呼ばれる新しいイメージセグメンテーションタスクを提示し、研究する。
GOSSは既知のクラスに属するピクセルを分類し、未知クラスのピクセルのクラスタ(またはグループ)をラベル付けする。
我々の新しいGOSSタスクは、将来の研究に表現力のあるイメージ理解をもたらすことができると信じている。
論文 参考訳(メタデータ) (2022-03-23T01:03:06Z) - Novel Class Discovery in Semantic Segmentation [104.30729847367104]
セマンティックにおける新しいクラス発見(NCDSS)について紹介する。
ラベル付き非結合クラスの集合から事前の知識を与えられた新しいクラスを含むラベル付きイメージのセグメンテーションを目的としている。
NCDSSでは、オブジェクトと背景を区別し、画像内の複数のクラスの存在を処理する必要があります。
本稿では,エントロピーに基づく不確実性モデリングと自己学習(EUMS)フレームワークを提案し,ノイズの多い擬似ラベルを克服する。
論文 参考訳(メタデータ) (2021-12-03T13:31:59Z) - A Technical Survey and Evaluation of Traditional Point Cloud Clustering
Methods for LiDAR Panoptic Segmentation [11.138159123596669]
LiDARのパノプティカルセグメンテーションは、自動運転のための新しい技術課題である。
既存のセマンティックセグメンテーションネットワークを用いたハイブリッド手法を提案し,セマンティック情報を抽出する。
パン光学セグメンテーションリーダーボード上で、すべてのエンドツーエンドディープラーニングソリューションの中で、最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-08-21T14:59:02Z) - GP-S3Net: Graph-based Panoptic Sparse Semantic Segmentation Network [1.9949920338542213]
GP-S3Netは提案なしのアプローチであり、オブジェクトを識別するためにオブジェクトの提案は必要ない。
私たちの新しいデザインは、セマンティックな結果を処理する新しいインスタンスレベルのネットワークで構成されています。
GP-S3Netは現在の最先端のアプローチよりも優れていた。
論文 参考訳(メタデータ) (2021-08-18T21:49:58Z) - Region Comparison Network for Interpretable Few-shot Image
Classification [97.97902360117368]
新しいクラスのモデルをトレーニングするために、ラベル付きサンプルの限られた数だけを効果的に活用するための画像分類が提案されている。
本研究では,領域比較ネットワーク (RCN) と呼ばれる距離学習に基づく手法を提案する。
また,タスクのレベルからカテゴリへの解釈可能性の一般化も提案する。
論文 参考訳(メタデータ) (2020-09-08T07:29:05Z) - Graph Prototypical Networks for Few-shot Learning on Attributed Networks [72.31180045017835]
グラフメタ学習フレームワーク - Graph Prototypeal Networks (GPN) を提案する。
GPNは、属性付きネットワーク上でテキストミータ学習を行い、ターゲット分類タスクを扱うための高度に一般化可能なモデルを導出する。
論文 参考訳(メタデータ) (2020-06-23T04:13:23Z) - Towards Bounding-Box Free Panoptic Segmentation [16.4548904544277]
パン光学セグメンテーションのための新しいBunding-Box Free Network (BBFNet) を提案する。
BBFNetは、粗い流域レベルを予測し、境界が適切に定義された大きなインスタンス候補を検出するためにそれらを使用する。
境界が信頼性の低い小さなインスタンスでは、BBFNetはHoughの投票によってインスタンス中心を予測し、続いて平均シフトによって小さなオブジェクトを確実に検出する。
論文 参考訳(メタデータ) (2020-02-18T16:34:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。