論文の概要: SOLO: A Simple Framework for Instance Segmentation
- arxiv url: http://arxiv.org/abs/2106.15947v1
- Date: Wed, 30 Jun 2021 09:56:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-01 15:32:00.530688
- Title: SOLO: A Simple Framework for Instance Segmentation
- Title(参考訳): SOLO: インスタンスセグメンテーションのためのシンプルなフレームワーク
- Authors: Xinlong Wang, Rufeng Zhang, Chunhua Shen, Tao Kong, Lei Li
- Abstract要約: インスタンスカテゴリ"は、インスタンスの場所に応じて、インスタンス内の各ピクセルにカテゴリを割り当てる。
SOLO"は、強力なパフォーマンスを備えたインスタンスセグメンテーションのための、シンプルで、直接的で、高速なフレームワークです。
提案手法は, 高速化と精度の両面から, 実例分割の最先端結果を実現する。
- 参考スコア(独自算出の注目度): 84.00519148562606
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Compared to many other dense prediction tasks, e.g., semantic segmentation,
it is the arbitrary number of instances that has made instance segmentation
much more challenging. In order to predict a mask for each instance, mainstream
approaches either follow the 'detect-then-segment' strategy (e.g., Mask R-CNN),
or predict embedding vectors first then cluster pixels into individual
instances. In this paper, we view the task of instance segmentation from a
completely new perspective by introducing the notion of "instance categories",
which assigns categories to each pixel within an instance according to the
instance's location. With this notion, we propose segmenting objects by
locations (SOLO), a simple, direct, and fast framework for instance
segmentation with strong performance. We derive a few SOLO variants (e.g.,
Vanilla SOLO, Decoupled SOLO, Dynamic SOLO) following the basic principle. Our
method directly maps a raw input image to the desired object categories and
instance masks, eliminating the need for the grouping post-processing or the
bounding box detection. Our approach achieves state-of-the-art results for
instance segmentation in terms of both speed and accuracy, while being
considerably simpler than the existing methods. Besides instance segmentation,
our method yields state-of-the-art results in object detection (from our mask
byproduct) and panoptic segmentation. We further demonstrate the flexibility
and high-quality segmentation of SOLO by extending it to perform one-stage
instance-level image matting. Code is available at: https://git.io/AdelaiDet
- Abstract(参考訳): セマンティクスセグメンテーションのような他の多くの密集した予測タスクと比較すると、インスタンスセグメンテーションをより困難にしたインスタンスの任意の数である。
各インスタンスのマスクを予測するために、メインストリームのアプローチは「検出-then-segment」戦略(例えばマスクr-cnn)に従うか、埋め込みベクターを予測し、まずピクセルを個々のインスタンスにクラスタする。
本稿では、インスタンスの場所に応じてインスタンス内の各ピクセルにカテゴリを割り当てる「インスタンスカテゴリ」の概念を導入することにより、インスタンスのセグメンテーションのタスクを全く新しい視点から考える。
この概念を応用して,高パフォーマンスのインスタンス分割のためのシンプルで直接的かつ高速なフレームワークである位置別セグメンテーションオブジェクト(SOLO)を提案する。
基本原理に従って、いくつかのSOLO変種(例えば、Vanilla SOLO、Decoupled SOLO、Dynamic SOLO)を導出する。
提案手法では,生の入力画像を対象のカテゴリやインスタンスマスクに直接マップし,グループ化後処理や境界ボックス検出の必要性を解消する。
提案手法は,従来の手法よりもはるかにシンプルでありながら,速度と精度の両面で,実例分割の最先端結果を実現する。
ケースセグメンテーションの他に,本手法はオブジェクト検出(マスク副生成物から)とパノプティクスセグメンテーションの最先端結果をもたらす。
さらに、一段階のインスタンスレベルの画像マッチングを行うように拡張することで、SOLOの柔軟性と高品質なセグメンテーションを示す。
コードは、https://git.io/AdelaiDet.comで入手できる。
関連論文リスト
- Unsupervised Universal Image Segmentation [59.0383635597103]
本稿では,Unsupervised Universal Model (U2Seg) を提案する。
U2Segは、自己教師付きモデルを利用して、これらのセグメンテーションタスクの擬似意味ラベルを生成する。
次に、これらの擬似意味ラベル上でモデルを自己学習し、かなりの性能向上をもたらす。
論文 参考訳(メタデータ) (2023-12-28T18:59:04Z) - Synthetic Instance Segmentation from Semantic Image Segmentation Masks [15.477053085267404]
我々は、Synthetic Instance(SISeg)と呼ばれる新しいパラダイムを提案する。
SISegインスタンスセグメンテーションの結果は、既存のセマンティックセグメンテーションモデルによって生成されたイメージマスクを活用する。
言い換えれば、提案モデルは余分な人力や高い計算コストを必要としない。
論文 参考訳(メタデータ) (2023-08-02T05:13:02Z) - Sparse Instance Activation for Real-Time Instance Segmentation [72.23597664935684]
本稿では,リアルタイムインスタンスセグメンテーションのための概念的・効率的・完全畳み込み型フレームワークを提案する。
SparseInstは非常に高速な推論速度を持ち、COCOベンチマークで40 FPSと37.9 APを達成した。
論文 参考訳(メタデータ) (2022-03-24T03:15:39Z) - Instance and Panoptic Segmentation Using Conditional Convolutions [96.7275593916409]
本稿では,CondInst と呼ばれる,シンプルで効果的な光学的セグメンテーションフレームワークを提案する。
我々は、CondInstがインスタンス分割タスクと単眼セグメンテーションタスクの両方において精度と推論速度を向上できることを示す。
論文 参考訳(メタデータ) (2021-02-05T06:57:02Z) - Unifying Instance and Panoptic Segmentation with Dynamic Rank-1
Convolutions [109.2706837177222]
DR1Maskは、インスタンスとセマンティックセグメンテーションの両方で共有機能マップを利用する最初のパノプティクスセグメンテーションフレームワークである。
副産物として、DR1Maskは従来の最先端のインスタンスセグメンテーションネットワークであるBlendMaskよりも10%高速で1ポイント精度が高い。
論文 参考訳(メタデータ) (2020-11-19T12:42:10Z) - Learning Panoptic Segmentation from Instance Contours [9.347742071428918]
Panopticpixel は、背景 (stuff) とオブジェクト (things) のインスタンスをピクセルレベルで理解することを目的としている。
セマンティックセグメンテーション(レベル分類)とインスタンスセグメンテーションの別々のタスクを組み合わせて、単一の統合されたシーン理解タスクを構築する。
セマンティックセグメンテーションとインスタンス輪郭からインスタンスセグメンテーションを学習する完全畳み込みニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-16T03:05:48Z) - CenterMask: single shot instance segmentation with point representation [16.464056972736838]
本稿では,シンプルで高速かつ高精度な単一ショット・インスタンス・セグメンテーション手法を提案する。
提案されたCenterMaskは12.3fpsのスピードで34.5マスクAPを達成した。
本手法はFCOSなどの他の一段物検出装置に容易に組み込むことができ,性能も良好である。
論文 参考訳(メタデータ) (2020-04-09T09:35:15Z) - Mask Encoding for Single Shot Instance Segmentation [97.99956029224622]
マスクエンコーディングに基づくインスタンスセグメンテーション(MEInst)と呼ばれる単純なシングルショットインスタンスセグメンテーションフレームワークを提案する。
二次元マスクを直接予測する代わりに、MEInstはそれをコンパクトで固定的な表現ベクトルに蒸留する。
よりシンプルでフレキシブルな一段階のインスタンスセグメンテーション手法は、競合性能も達成できることを示す。
論文 参考訳(メタデータ) (2020-03-26T02:51:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。