論文の概要: SOLOv2: Dynamic and Fast Instance Segmentation
- arxiv url: http://arxiv.org/abs/2003.10152v3
- Date: Fri, 23 Oct 2020 23:49:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 00:15:47.946457
- Title: SOLOv2: Dynamic and Fast Instance Segmentation
- Title(参考訳): solov2: 動的および高速インスタンスセグメンテーション
- Authors: Xinlong Wang, Rufeng Zhang, Tao Kong, Lei Li, Chunhua Shen
- Abstract要約: パフォーマンスの高いシンプルで直接的で高速なインスタンスセグメンテーションフレームワークを構築しています。
オブジェクトセグメンタのマスクヘッドを動的に学習することで、さらに一歩前進する。
簡単な直接インスタンス分割システムを示し,高速化と精度の両面において,いくつかの最先端手法より優れていることを示す。
- 参考スコア(独自算出の注目度): 102.15325936477362
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this work, we aim at building a simple, direct, and fast instance
segmentation framework with strong performance. We follow the principle of the
SOLO method of Wang et al. "SOLO: segmenting objects by locations".
Importantly, we take one step further by dynamically learning the mask head of
the object segmenter such that the mask head is conditioned on the location.
Specifically, the mask branch is decoupled into a mask kernel branch and mask
feature branch, which are responsible for learning the convolution kernel and
the convolved features respectively. Moreover, we propose Matrix NMS (non
maximum suppression) to significantly reduce the inference time overhead due to
NMS of masks. Our Matrix NMS performs NMS with parallel matrix operations in
one shot, and yields better results. We demonstrate a simple direct instance
segmentation system, outperforming a few state-of-the-art methods in both speed
and accuracy. A light-weight version of SOLOv2 executes at 31.3 FPS and yields
37.1% AP. Moreover, our state-of-the-art results in object detection (from our
mask byproduct) and panoptic segmentation show the potential to serve as a new
strong baseline for many instance-level recognition tasks besides instance
segmentation. Code is available at: https://git.io/AdelaiDet
- Abstract(参考訳): この作業では、パフォーマンスの高いシンプルで直接的で高速なインスタンスセグメンテーションフレームワークの構築を目指しています。
我々は、wangらによるソロメソッドの原則に従う。
「SOLO:場所ごとにオブジェクトを分割する」。
重要なことは、マスクヘッドが位置に配置されるようにオブジェクトセグメンタのマスクヘッドを動的に学習することで、さらに一歩前進する。
具体的には、マスク分岐をマスクカーネル分岐とマスク特徴分岐とに分離し、それぞれ、畳み込みカーネルと連結された特徴を学習する責任を負う。
さらに,マスクのnmsによる推定時間のオーバーヘッドを大幅に削減するために,行列nms(non maximum suppression)を提案する。
我々のマトリックスNMSは1ショットで並列行列演算でNMSを実行し、より良い結果を得る。
単純な直接インスタンスセグメンテーションシステムを示し,速度と精度の両方において,最先端の手法に勝ることを示した。
SOLOv2の軽量版は31.3 FPSで実行され、37.1%のAPが得られる。
さらに,本研究の現状から,オブジェクト検出(マスク副生成物)やパノプティックセグメンテーションは,インスタンスセグメンテーション以外の多くのインスタンスレベルの認識タスクにおいて,新たな強力なベースラインとして機能する可能性を示している。
コードは、https://git.io/AdelaiDet.comで入手できる。
関連論文リスト
- SOLO: A Simple Framework for Instance Segmentation [84.00519148562606]
インスタンスカテゴリ"は、インスタンスの場所に応じて、インスタンス内の各ピクセルにカテゴリを割り当てる。
SOLO"は、強力なパフォーマンスを備えたインスタンスセグメンテーションのための、シンプルで、直接的で、高速なフレームワークです。
提案手法は, 高速化と精度の両面から, 実例分割の最先端結果を実現する。
論文 参考訳(メタデータ) (2021-06-30T09:56:54Z) - RefineMask: Towards High-Quality Instance Segmentation with Fine-Grained
Features [53.71163467683838]
RefineMaskは、オブジェクトやシーンの高品質なインスタンスセグメンテーションのための新しい方法です。
インスタンス毎のセグメンテーションプロセス中に粒度の細かい機能を多段階的に組み込む。
以前のほとんどのメソッドで過剰にスムースされたオブジェクトの曲がった部分のようなハードケースをセグメンテーションすることに成功します。
論文 参考訳(メタデータ) (2021-04-17T15:09:20Z) - Instance and Panoptic Segmentation Using Conditional Convolutions [96.7275593916409]
本稿では,CondInst と呼ばれる,シンプルで効果的な光学的セグメンテーションフレームワークを提案する。
我々は、CondInstがインスタンス分割タスクと単眼セグメンテーションタスクの両方において精度と推論速度を向上できることを示す。
論文 参考訳(メタデータ) (2021-02-05T06:57:02Z) - Mask Encoding for Single Shot Instance Segmentation [97.99956029224622]
マスクエンコーディングに基づくインスタンスセグメンテーション(MEInst)と呼ばれる単純なシングルショットインスタンスセグメンテーションフレームワークを提案する。
二次元マスクを直接予測する代わりに、MEInstはそれをコンパクトで固定的な表現ベクトルに蒸留する。
よりシンプルでフレキシブルな一段階のインスタンスセグメンテーション手法は、競合性能も達成できることを示す。
論文 参考訳(メタデータ) (2020-03-26T02:51:17Z) - PointINS: Point-based Instance Segmentation [117.38579097923052]
POI(Point-of-Interest)機能によるインスタンスセグメンテーションにおけるマスク表現は、各インスタンスの高次元マスク機能を学ぶには、計算負荷が重いため、難しい。
本稿では、このマスク表現学習タスクを2つの抽出可能なモジュールに分解するインスタンス認識畳み込みを提案する。
インスタンス認識の畳み込みとともに、単純で実用的なインスタンスセグメンテーションアプローチであるPointINSを提案する。
論文 参考訳(メタデータ) (2020-03-13T08:24:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。