論文の概要: Learning Panoptic Segmentation from Instance Contours
- arxiv url: http://arxiv.org/abs/2010.11681v2
- Date: Tue, 6 Apr 2021 01:09:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 21:49:01.709933
- Title: Learning Panoptic Segmentation from Instance Contours
- Title(参考訳): インスタンス輪郭からのパノプティックセグメンテーションの学習
- Authors: Sumanth Chennupati, Venkatraman Narayanan, Ganesh Sistu, Senthil
Yogamani and Samir A Rawashdeh
- Abstract要約: Panopticpixel は、背景 (stuff) とオブジェクト (things) のインスタンスをピクセルレベルで理解することを目的としている。
セマンティックセグメンテーション(レベル分類)とインスタンスセグメンテーションの別々のタスクを組み合わせて、単一の統合されたシーン理解タスクを構築する。
セマンティックセグメンテーションとインスタンス輪郭からインスタンスセグメンテーションを学習する完全畳み込みニューラルネットワークを提案する。
- 参考スコア(独自算出の注目度): 9.347742071428918
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Panoptic Segmentation aims to provide an understanding of background (stuff)
and instances of objects (things) at a pixel level. It combines the separate
tasks of semantic segmentation (pixel level classification) and instance
segmentation to build a single unified scene understanding task. Typically,
panoptic segmentation is derived by combining semantic and instance
segmentation tasks that are learned separately or jointly (multi-task
networks). In general, instance segmentation networks are built by adding a
foreground mask estimation layer on top of object detectors or using instance
clustering methods that assign a pixel to an instance center. In this work, we
present a fully convolution neural network that learns instance segmentation
from semantic segmentation and instance contours (boundaries of things).
Instance contours along with semantic segmentation yield a boundary aware
semantic segmentation of things. Connected component labeling on these results
produces instance segmentation. We merge semantic and instance segmentation
results to output panoptic segmentation. We evaluate our proposed method on the
CityScapes dataset to demonstrate qualitative and quantitative performances
along with several ablation studies. Our overview video can be accessed from
url:https://youtu.be/wBtcxRhG3e0.
- Abstract(参考訳): Panoptic Segmentation は、背景 (stuff) とオブジェクト (things) のインスタンスをピクセルレベルで理解することを目的としている。
セマンティックセグメンテーション(ピクセルレベル分類)とインスタンスセグメンテーションの分離タスクを組み合わせて、1つの統一されたシーン理解タスクを構築する。
通常、単眼セグメンテーションは、個別または共同で学習されるセグメンテーションタスク(マルチタスクネットワーク)とインスタンスセグメンテーションタスクを組み合わせることで導かれる。
一般的に、インスタンスセグメンテーションネットワークは、オブジェクト検出器の上に前景マスク推定層を追加したり、インスタンス中心にピクセルを割り当てるインスタンスクラスタリング手法を使用して構築される。
本研究では、セマンティックセグメンテーションとインスタンス輪郭(物の境界)からインスタンスセグメンテーションを学習する完全畳み込みニューラルネットワークを提案する。
セマンティックセグメンテーションと共にインスタンスの輪郭は、セマンティックセグメンテーションの境界を認識します。
これらの結果に接続されたコンポーネントラベリングはインスタンスセグメンテーションを生成する。
セマンティクスとインスタンスセグメンテーションの結果を、アウトプットのpanopticセグメンテーションにマージする。
提案手法を都市景観データセット上で評価し,いくつかのアブレーション研究とともに質的,定量的に評価した。
私たちの概要ビデオは、url.be/wBtcxRhG3e0からアクセスできます。
関連論文リスト
- Synthetic Instance Segmentation from Semantic Image Segmentation Masks [15.477053085267404]
我々は、Synthetic Instance(SISeg)と呼ばれる新しいパラダイムを提案する。
SISegインスタンスセグメンテーションの結果は、既存のセマンティックセグメンテーションモデルによって生成されたイメージマスクを活用する。
言い換えれば、提案モデルは余分な人力や高い計算コストを必要としない。
論文 参考訳(メタデータ) (2023-08-02T05:13:02Z) - SegGPT: Segmenting Everything In Context [98.98487097934067]
コンテキスト内ですべてをセグメント化するモデルであるSegGPTを提示する。
様々なセグメンテーションタスクを汎用的なインコンテキスト学習フレームワークに統合する。
SegGPTは、コンテクスト内推論を通じて、画像やビデオの任意のセグメンテーションタスクを実行することができる。
論文 参考訳(メタデータ) (2023-04-06T17:59:57Z) - Tag-Based Attention Guided Bottom-Up Approach for Video Instance
Segmentation [83.13610762450703]
ビデオインスタンスは、ビデオシーケンス全体にわたるオブジェクトインスタンスのセグメンテーションと追跡を扱う、基本的なコンピュータビジョンタスクである。
そこで本研究では,従来の領域プロモーター方式ではなく,画素レベルの粒度でインスタンスマスク予測を実現するための,単純なエンドツーエンドのボトムアップ方式を提案する。
提案手法は,YouTube-VIS と DAVIS-19 のデータセット上での競合結果を提供する。
論文 参考訳(メタデータ) (2022-04-22T15:32:46Z) - 3D Compositional Zero-shot Learning with DeCompositional Consensus [102.7571947144639]
我々は、部分的知識は観察されたオブジェクトクラスを超えて構成可能であるべきだと論じる。
本稿では、視覚から見えないオブジェクトクラスへの部分一般化の問題として、3D合成ゼロショット学習を提案する。
論文 参考訳(メタデータ) (2021-11-29T16:34:53Z) - Robust 3D Scene Segmentation through Hierarchical and Learnable
Part-Fusion [9.275156524109438]
3Dセマンティックセグメンテーションは、自律運転、ロボット工学、AR/VRといったいくつかのシーン理解アプリケーションのための基本的なビルディングブロックである。
従来の手法では、階層的で反復的な手法を用いて意味や事例情報を融合するが、文脈融合における学習性は欠如している。
本稿では,セグメンテーション・フュージョン(Seegment-Fusion)について述べる。
論文 参考訳(メタデータ) (2021-11-16T13:14:47Z) - SOLO: A Simple Framework for Instance Segmentation [84.00519148562606]
インスタンスカテゴリ"は、インスタンスの場所に応じて、インスタンス内の各ピクセルにカテゴリを割り当てる。
SOLO"は、強力なパフォーマンスを備えたインスタンスセグメンテーションのための、シンプルで、直接的で、高速なフレームワークです。
提案手法は, 高速化と精度の両面から, 実例分割の最先端結果を実現する。
論文 参考訳(メタデータ) (2021-06-30T09:56:54Z) - Object-Guided Instance Segmentation With Auxiliary Feature Refinement
for Biological Images [58.914034295184685]
サンプルセグメンテーションは、神経細胞相互作用の研究、植物の表現型化、細胞が薬物治療にどう反応するかを定量的に測定するなど、多くの生物学的応用において非常に重要である。
Boxベースのインスタンスセグメンテーションメソッドは、バウンディングボックスを介してオブジェクトをキャプチャし、各バウンディングボックス領域内で個々のセグメンテーションを実行する。
提案手法は,まずオブジェクトの中心点を検出し,そこから境界ボックスパラメータが予測される。
セグメンテーションブランチは、オブジェクト特徴をガイダンスとして再利用し、同じバウンディングボックス領域内の隣のオブジェクトからターゲットオブジェクトを分離する。
論文 参考訳(メタデータ) (2021-06-14T04:35:36Z) - Exploring Cross-Image Pixel Contrast for Semantic Segmentation [130.22216825377618]
完全教師付きセッティングにおけるセマンティックセグメンテーションのための画素単位のコントラストフレームワークを提案する。
中心となる考え方は、同じセマンティッククラスに属するピクセルの埋め込みを、異なるクラスの埋め込みよりもよく似ているように強制することである。
テスト中に余分なオーバーヘッドを伴わずに既存のセグメンテーションフレームワークに懸命に組み込むことができる。
論文 参考訳(メタデータ) (2021-01-28T11:35:32Z) - Instance segmentation of buildings using keypoints [26.220921532554136]
本稿では,高分解能リモートセンシング画像におけるセグメンテーションを構築するための新しいインスタンスセグメンテーションネットワークを提案する。
検出されたキーポイントはその後、建物のセマンティック境界である閉ポリゴンとして再構成される。
我々のネットワークは、幾何学的詳細をよく保存できるボトムアップのインスタンスセグメンテーション手法である。
論文 参考訳(メタデータ) (2020-06-06T13:11:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。