論文の概要: CenterMask: single shot instance segmentation with point representation
- arxiv url: http://arxiv.org/abs/2004.04446v2
- Date: Sat, 11 Apr 2020 05:12:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 03:04:03.695325
- Title: CenterMask: single shot instance segmentation with point representation
- Title(参考訳): centermask: ポイント表現を備えたシングルショットインスタンスセグメンテーション
- Authors: Yuqing Wang, Zhaoliang Xu, Hao Shen, Baoshan Cheng, Lirong Yang
- Abstract要約: 本稿では,シンプルで高速かつ高精度な単一ショット・インスタンス・セグメンテーション手法を提案する。
提案されたCenterMaskは12.3fpsのスピードで34.5マスクAPを達成した。
本手法はFCOSなどの他の一段物検出装置に容易に組み込むことができ,性能も良好である。
- 参考スコア(独自算出の注目度): 16.464056972736838
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a single-shot instance segmentation method, which
is simple, fast and accurate. There are two main challenges for one-stage
instance segmentation: object instances differentiation and pixel-wise feature
alignment. Accordingly, we decompose the instance segmentation into two
parallel subtasks: Local Shape prediction that separates instances even in
overlapping conditions, and Global Saliency generation that segments the whole
image in a pixel-to-pixel manner. The outputs of the two branches are assembled
to form the final instance masks. To realize that, the local shape information
is adopted from the representation of object center points. Totally trained
from scratch and without any bells and whistles, the proposed CenterMask
achieves 34.5 mask AP with a speed of 12.3 fps, using a single-model with
single-scale training/testing on the challenging COCO dataset. The accuracy is
higher than all other one-stage instance segmentation methods except the 5
times slower TensorMask, which shows the effectiveness of CenterMask. Besides,
our method can be easily embedded to other one-stage object detectors such as
FCOS and performs well, showing the generalization of CenterMask.
- Abstract(参考訳): 本稿では,シンプルで高速かつ高精度な単一ショット・インスタンス・セグメンテーション法を提案する。
1段階のインスタンスセグメンテーションには、オブジェクトインスタンスの差別化とピクセル単位での機能アライメントという2つの大きな課題がある。
したがって、インスタンスセグメンテーションを2つの並列サブタスクに分解する。重複した条件でもインスタンスを分離するローカルシェイプ予測と、ピクセル対ピクセルの方法でイメージ全体をセグメンテーションするグローバルサリエンシ生成である。
2つのブランチの出力は、最終インスタンスマスクを形成するために組み立てられる。
これを実現するために、対象中心点の表現から局所形状情報を採用する。
完全にスクラッチからトレーニングされ、ベルやホイッスルなしで、提案されている centermask は 12.3 fps の速度で 34.5 マスク ap を達成している。
精度は、CenterMaskの有効性を示す5倍遅いTensorMaskを除いて、他のすべての1段階のインスタンスセグメンテーション方法よりも高い。
また,本手法はFCOSなどの他の1段階の物体検出器に容易に組み込むことができ,CenterMaskの一般化を示す。
関連論文リスト
- Mask3D: Mask Transformer for 3D Semantic Instance Segmentation [89.41640045953378]
一般的なTransformerビルディングブロックを利用して、3Dポイントクラウドからインスタンスマスクを直接予測できることが示されています。
Transformerデコーダを使用して、インスタンスクエリは、複数のスケールでクラウド機能をポイントする反復的な参加者によって学習される。
Mask3Dは、新しい最先端ScanNetテスト(+6.2 mAP)、S3DIS 6-fold(+10.1 mAP)、LS3D(+11.2 mAP)、ScanNet200テスト(+12.4 mAP)を設定する。
論文 参考訳(メタデータ) (2022-10-06T17:55:09Z) - SOLO: A Simple Framework for Instance Segmentation [84.00519148562606]
インスタンスカテゴリ"は、インスタンスの場所に応じて、インスタンス内の各ピクセルにカテゴリを割り当てる。
SOLO"は、強力なパフォーマンスを備えたインスタンスセグメンテーションのための、シンプルで、直接的で、高速なフレームワークです。
提案手法は, 高速化と精度の両面から, 実例分割の最先端結果を実現する。
論文 参考訳(メタデータ) (2021-06-30T09:56:54Z) - SipMask: Spatial Information Preservation for Fast Image and Video
Instance Segmentation [149.242230059447]
SipMaskと呼ばれる高速な単一ステージインスタンス分割法を提案する。
検出されたバウンディングボックスの異なるサブリージョンにインスタンスのマスク予測を分離することで、インスタンス固有の空間情報を保存する。
リアルタイム機能の面では、SipMaskはYOLACTを、同様の設定で3.0%(マスクAP)という絶対的なゲインで上回ります。
論文 参考訳(メタデータ) (2020-07-29T12:21:00Z) - Mask Encoding for Single Shot Instance Segmentation [97.99956029224622]
マスクエンコーディングに基づくインスタンスセグメンテーション(MEInst)と呼ばれる単純なシングルショットインスタンスセグメンテーションフレームワークを提案する。
二次元マスクを直接予測する代わりに、MEInstはそれをコンパクトで固定的な表現ベクトルに蒸留する。
よりシンプルでフレキシブルな一段階のインスタンスセグメンテーション手法は、競合性能も達成できることを示す。
論文 参考訳(メタデータ) (2020-03-26T02:51:17Z) - PointINS: Point-based Instance Segmentation [117.38579097923052]
POI(Point-of-Interest)機能によるインスタンスセグメンテーションにおけるマスク表現は、各インスタンスの高次元マスク機能を学ぶには、計算負荷が重いため、難しい。
本稿では、このマスク表現学習タスクを2つの抽出可能なモジュールに分解するインスタンス認識畳み込みを提案する。
インスタンス認識の畳み込みとともに、単純で実用的なインスタンスセグメンテーションアプローチであるPointINSを提案する。
論文 参考訳(メタデータ) (2020-03-13T08:24:58Z) - SDOD:Real-time Segmenting and Detecting 3D Object by Depth [5.97602869680438]
本稿では,3次元物体を奥行きで分割・検出するリアルタイムフレームワークを提案する。
オブジェクトの深さを深度カテゴリに分類し、インスタンス分割タスクをピクセルレベルの分類タスクに変換する。
挑戦的なKITTIデータセットの実験から、我々のアプローチはLklNetを約1.8倍の性能で、セグメンテーションと3D検出の速度を上回ります。
論文 参考訳(メタデータ) (2020-01-26T09:06:18Z) - BlendMask: Top-Down Meets Bottom-Up for Instance Segmentation [103.74690082121079]
本研究では,インスタンスレベルの情報とセマンティックな情報と,低レベルの微細な粒度を効果的に組み合わせることで,マスク予測の改善を実現する。
私たちの主な貢献は、トップダウンとボトムアップの両方のインスタンスセグメンテーションアプローチからインスピレーションを得たブレンダーモジュールです。
BlendMaskは、非常に少ないチャネルで、ピクセルあたりの高密度な位置感受性インスタンス機能を効果的に予測し、単一の畳み込み層で各インスタンスの注意マップを学習することができる。
論文 参考訳(メタデータ) (2020-01-02T03:30:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。