論文の概要: Panoptic SegFormer
- arxiv url: http://arxiv.org/abs/2109.03814v1
- Date: Wed, 8 Sep 2021 17:59:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-09 14:32:08.392657
- Title: Panoptic SegFormer
- Title(参考訳): パンオプティカルセグフォーマ
- Authors: Zhiqi Li, Wenhai Wang, Enze Xie, Zhiding Yu, Anima Anandkumar, Jose M.
Alvarez, Tong Lu, Ping Luo
- Abstract要約: 本稿では,Panoptic-SegFormerを提案する。
ResNet-50のバックボーンでは,COCOテスト-devスプリットで50.0%のPQが得られる。
より強力なPVTv2-B5バックボーンを使用して、Panoptic-SegFormerは、COCO valで54.1%PQと54.4%PQの新たな記録を達成した。
- 参考スコア(独自算出の注目度): 82.6258003344804
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present Panoptic SegFormer, a general framework for end-to-end panoptic
segmentation with Transformers. The proposed method extends Deformable DETR
with a unified mask prediction workflow for both things and stuff, making the
panoptic segmentation pipeline concise and effective. With a ResNet-50
backbone, our method achieves 50.0\% PQ on the COCO test-dev split, surpassing
previous state-of-the-art methods by significant margins without bells and
whistles. Using a more powerful PVTv2-B5 backbone, Panoptic-SegFormer achieves
a new record of 54.1\%PQ and 54.4\% PQ on the COCO val and test-dev splits with
single scale input.
- Abstract(参考訳): 本稿では,トランスフォーマーを用いたエンドツーエンドのpanopticセグメンテーションのための汎用フレームワークであるpanoptic segformerを提案する。
提案手法は変形可能なdetrを拡張し,モノとモノの統一マスク予測ワークフローにより,パンオプティカルセグメンテーションパイプラインを簡潔かつ効果的にする。
ResNet-50のバックボーンでは,COCOテストデブスプリットにおいて50.0\%のPQを達成し,ベルやホイッスルを使わずに,従来の最先端の手法をはるかに上回っている。
より強力なPVTv2-B5バックボーンを使用して、Panoptic-SegFormerは、COCO valとテストデブスプリットで54.1\%PQと54.4\%PQの新記録をシングルスケール入力で達成した。
関連論文リスト
- PAUMER: Patch Pausing Transformer for Semantic Segmentation [3.3148826359547523]
画像の異なる部分の異なる計算量を用いて分割変換器の効率を向上する問題について検討する。
提案手法であるPAUMERは,最終的なデコーダに先立って,それ以上の計算を必要としないパッチの計算処理を行うことで,これを実現する。
論文 参考訳(メタデータ) (2023-11-01T15:32:11Z) - You Only Segment Once: Towards Real-Time Panoptic Segmentation [68.91492389185744]
YOSOはリアルタイムのパン光学セグメンテーションフレームワークである。
YOSOは、パン光学カーネルと画像特徴マップの間の動的畳み込みを通じてマスクを予測する。
YOSOは、COCOで46.4 PQ、45.6 FPS、都市景観で52.5 PQ、22.6 FPS、ADE20Kで38.0 PQ、35.4 FPSを達成している。
論文 参考訳(メタデータ) (2023-03-26T07:55:35Z) - Fully Convolutional Networks for Panoptic Segmentation with Point-based
Supervision [88.71403886207071]
そこで我々は,Panoptic FCNと呼ばれる,完全かつ弱教師付きパノプティカルセグメンテーションのための,概念的にシンプルで強力で効率的なフレームワークを提案する。
我々のアプローチは、統一された完全な畳み込みパイプラインにおいて、前景や背景を表現し、予測することを目的としています。
Panoptic FCNは、提案したカーネルジェネレータで各オブジェクトのインスタンスやもののカテゴリをエンコードし、高解像度の機能を直接変換することで予測を生成する。
論文 参考訳(メタデータ) (2021-08-17T15:28:53Z) - A Coarse-to-Fine Instance Segmentation Network with Learning Boundary
Representation [10.967299485260163]
境界ベースのインスタンスセグメンテーションは、その魅力的な効率性から多くの注目を集めている。
既存の手法は長距離回帰の難しさに悩まされている。
この問題に対処する粗大なモジュールを提案する。
論文 参考訳(メタデータ) (2021-06-18T16:37:28Z) - Fully Convolutional Networks for Panoptic Segmentation [91.84686839549488]
そこで我々は,Panoptic FCNという概念的,シンプルで,強力で,効率的なパノプティックセグメンテーションフレームワークを提案する。
我々のアプローチは、統一された完全な畳み込みパイプラインにおいて、前景や背景を表現し、予測することを目的としています。
Panoptic FCNは、提案されたカーネルジェネレータで、各オブジェクトインスタンスまたは物カテゴリを特定のカーネル重みにエンコードする。
論文 参考訳(メタデータ) (2020-12-01T18:31:41Z) - The Devil is in the Boundary: Exploiting Boundary Representation for
Basis-based Instance Segmentation [85.153426159438]
本研究では,既存のグローバルマスクベースの手法を補完するグローバル境界表現を学習するために,Basisベースのインスタンス(B2Inst)を提案する。
私たちのB2Instは一貫した改善をもたらし、シーン内のインスタンス境界を正確に解析します。
論文 参考訳(メタデータ) (2020-11-26T11:26:06Z) - Unifying Training and Inference for Panoptic Segmentation [111.44758195510838]
本稿では,汎視的セグメンテーションのためのトレーニングと推論のギャップを埋めるエンド・ツー・エンドのネットワークを提案する。
本システムは,ResNet-50のバックボーンで61.4 PQを達成した,人気のストリートシーンデータセットであるCityscapesに新たなレコードを設定する。
当社のネットワークは柔軟にオブジェクトマスクのヒントなしで動作し、両方の設定下で競合的に動作します。
論文 参考訳(メタデータ) (2020-01-14T18:58:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。