論文の概要: Fully Convolutional Networks for Panoptic Segmentation
- arxiv url: http://arxiv.org/abs/2012.00720v2
- Date: Sat, 3 Apr 2021 04:28:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-30 19:45:20.025369
- Title: Fully Convolutional Networks for Panoptic Segmentation
- Title(参考訳): パンオプティカルセグメンテーションのための完全畳み込みネットワーク
- Authors: Yanwei Li, Hengshuang Zhao, Xiaojuan Qi, Liwei Wang, Zeming Li, Jian
Sun, Jiaya Jia
- Abstract要約: そこで我々は,Panoptic FCNという概念的,シンプルで,強力で,効率的なパノプティックセグメンテーションフレームワークを提案する。
我々のアプローチは、統一された完全な畳み込みパイプラインにおいて、前景や背景を表現し、予測することを目的としています。
Panoptic FCNは、提案されたカーネルジェネレータで、各オブジェクトインスタンスまたは物カテゴリを特定のカーネル重みにエンコードする。
- 参考スコア(独自算出の注目度): 91.84686839549488
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a conceptually simple, strong, and efficient
framework for panoptic segmentation, called Panoptic FCN. Our approach aims to
represent and predict foreground things and background stuff in a unified fully
convolutional pipeline. In particular, Panoptic FCN encodes each object
instance or stuff category into a specific kernel weight with the proposed
kernel generator and produces the prediction by convolving the high-resolution
feature directly. With this approach, instance-aware and semantically
consistent properties for things and stuff can be respectively satisfied in a
simple generate-kernel-then-segment workflow. Without extra boxes for
localization or instance separation, the proposed approach outperforms previous
box-based and -free models with high efficiency on COCO, Cityscapes, and
Mapillary Vistas datasets with single scale input. Our code is made publicly
available at https://github.com/Jia-Research-Lab/PanopticFCN.
- Abstract(参考訳): 本稿では,Panoptic FCNという概念的,シンプルで,強力で,効率的な汎視セグメンテーションフレームワークを提案する。
我々のアプローチは、完全な畳み込みパイプラインで前景や背景を表現し、予測することを目的としています。
特に、Panoptic FCNは、提案したカーネルジェネレータで、各オブジェクトインスタンスまたは物カテゴリを特定のカーネル重みにエンコードし、高分解能機能を直接変換することによって予測を生成する。
このアプローチでは、インスタンス認識と、物や物のセマンティクス的に一貫した特性は、単純な生成-カーネル-セグメンテーションワークフローでそれぞれ満足できます。
ローカライゼーションやインスタンス分離のための追加のボックスがなければ、提案手法は、COCO、Cityscapes、Mapillary Vistasデータセットを単一スケールの入力で高効率で、従来のボックスベースおよびフリーモデルより優れている。
私たちのコードはhttps://github.com/Jia-Research-Lab/PanopticFCN.comで公開されています。
関連論文リスト
- Fully Convolutional Networks for Panoptic Segmentation with Point-based
Supervision [88.71403886207071]
そこで我々は,Panoptic FCNと呼ばれる,完全かつ弱教師付きパノプティカルセグメンテーションのための,概念的にシンプルで強力で効率的なフレームワークを提案する。
我々のアプローチは、統一された完全な畳み込みパイプラインにおいて、前景や背景を表現し、予測することを目的としています。
Panoptic FCNは、提案したカーネルジェネレータで各オブジェクトのインスタンスやもののカテゴリをエンコードし、高解像度の機能を直接変換することで予測を生成する。
論文 参考訳(メタデータ) (2021-08-17T15:28:53Z) - Dynamic Convolution for 3D Point Cloud Instance Segmentation [146.7971476424351]
動的畳み込みに基づく3次元点雲からのインスタンスセグメンテーション手法を提案する。
我々は、同じ意味圏と閉投票を持つ等質点を幾何学的遠近点に対して収集する。
提案手法は提案不要であり、代わりに各インスタンスの空間的および意味的特性に適応する畳み込みプロセスを利用する。
論文 参考訳(メタデータ) (2021-07-18T09:05:16Z) - K-Net: Towards Unified Image Segmentation [78.32096542571257]
K-Netと名付けられたこのフレームワークは、学習可能なカーネルのグループによってインスタンスとセマンティックカテゴリの両方を一貫して分割する。
K-Netは双方向マッチングでエンドツーエンドでトレーニングすることができ、そのトレーニングと推論は自然にNMSフリーで、ボックスフリーである。
論文 参考訳(メタデータ) (2021-06-28T17:18:21Z) - Inferring community characteristics in labelled networks [6.85316573653194]
我々は新しい生成モデルである特徴第一ブロックモデル(FFBM)を導入する。
FFBMパラメータの後方分布から効率的にサンプリングする方法を提案する。
提案手法の主な利点は、機能空間全体が自動的に使用され、影響に応じて暗黙的に機能をランク付けできる点である。
論文 参考訳(メタデータ) (2021-05-28T12:07:10Z) - DyCo3D: Robust Instance Segmentation of 3D Point Clouds through Dynamic
Convolution [136.7261709896713]
本稿では,インスタンスの性質に応じて適切な畳み込みカーネルを生成するデータ駆動型アプローチを提案する。
提案手法はScanetNetV2とS3DISの両方で有望な結果が得られる。
また、現在の最先端よりも推論速度を25%以上向上させる。
論文 参考訳(メタデータ) (2020-11-26T14:56:57Z) - Towards Efficient Scene Understanding via Squeeze Reasoning [71.1139549949694]
我々はSqueeze Reasoningと呼ばれる新しいフレームワークを提案する。
空間地図上の情報を伝播するのではなく、まず入力特徴をチャネルワイドなグローバルベクトルに絞ることを学ぶ。
提案手法はエンドツーエンドのトレーニングブロックとしてモジュール化可能であり,既存のネットワークに簡単に接続可能であることを示す。
論文 参考訳(メタデータ) (2020-11-06T12:17:01Z) - EPSNet: Efficient Panoptic Segmentation Network with Cross-layer
Attention Fusion [5.815742965809424]
高速な推論速度でパノプティカルセグメンテーションタスクに取り組むために,EPSNet(Efficient Panoptic Network)を提案する。
基本的に、EPSNetはプロトタイプマスクとマスク係数の単純な線形結合に基づいてマスクを生成する。
共有プロトタイプの品質を高めるために,我々は"クロスレイヤーアテンション融合モジュール"と呼ばれるモジュールを採用した。
論文 参考訳(メタデータ) (2020-03-23T09:11:44Z) - Towards Bounding-Box Free Panoptic Segmentation [16.4548904544277]
パン光学セグメンテーションのための新しいBunding-Box Free Network (BBFNet) を提案する。
BBFNetは、粗い流域レベルを予測し、境界が適切に定義された大きなインスタンス候補を検出するためにそれらを使用する。
境界が信頼性の低い小さなインスタンスでは、BBFNetはHoughの投票によってインスタンス中心を予測し、続いて平均シフトによって小さなオブジェクトを確実に検出する。
論文 参考訳(メタデータ) (2020-02-18T16:34:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。