論文の概要: Mask Encoding for Single Shot Instance Segmentation
- arxiv url: http://arxiv.org/abs/2003.11712v2
- Date: Wed, 6 May 2020 12:44:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 21:51:21.438793
- Title: Mask Encoding for Single Shot Instance Segmentation
- Title(参考訳): シングルショットインスタンスセグメンテーションのためのマスク符号化
- Authors: Rufeng Zhang, Zhi Tian, Chunhua Shen, Mingyu You, Youliang Yan
- Abstract要約: マスクエンコーディングに基づくインスタンスセグメンテーション(MEInst)と呼ばれる単純なシングルショットインスタンスセグメンテーションフレームワークを提案する。
二次元マスクを直接予測する代わりに、MEInstはそれをコンパクトで固定的な表現ベクトルに蒸留する。
よりシンプルでフレキシブルな一段階のインスタンスセグメンテーション手法は、競合性能も達成できることを示す。
- 参考スコア(独自算出の注目度): 97.99956029224622
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: To date, instance segmentation is dominated by twostage methods, as pioneered
by Mask R-CNN. In contrast, one-stage alternatives cannot compete with Mask
R-CNN in mask AP, mainly due to the difficulty of compactly representing masks,
making the design of one-stage methods very challenging. In this work, we
propose a simple singleshot instance segmentation framework, termed mask
encoding based instance segmentation (MEInst). Instead of predicting the
two-dimensional mask directly, MEInst distills it into a compact and
fixed-dimensional representation vector, which allows the instance segmentation
task to be incorporated into one-stage bounding-box detectors and results in a
simple yet efficient instance segmentation framework. The proposed one-stage
MEInst achieves 36.4% in mask AP with single-model (ResNeXt-101-FPN backbone)
and single-scale testing on the MS-COCO benchmark. We show that the much
simpler and flexible one-stage instance segmentation method, can also achieve
competitive performance. This framework can be easily adapted for other
instance-level recognition tasks. Code is available at:
https://git.io/AdelaiDet
- Abstract(参考訳): 現在、インスタンスセグメンテーションは、Mask R-CNNが開拓した2段階の手法によって支配されている。
対照的に、ワンステージの代替案はマスクapのマスクr-cnnと競合できないが、主にマスクをコンパクトに表現することの難しさから、ワンステージ方式の設計は非常に困難である。
本研究では,単純なシングルショットインスタンスセグメンテーションフレームワークであるマスクエンコーディングに基づくインスタンスセグメンテーション(meinst)を提案する。
2次元マスクを直接予測する代わりに、meinstはそれをコンパクトで固定次元の表現ベクトルに蒸留し、インスタンス分割タスクを1段階のバウンディングボックス検出器に組み込むことができ、シンプルで効率的なインスタンスセグメンテーションフレームワークとなる。
提案された1段階のMEInstは、シングルモデル(ResNeXt-101-FPNバックボーン)とMS-COCOベンチマークでのシングルスケールテストで36.4%のマスクAPを達成した。
よりシンプルでフレキシブルな一段階のインスタンスセグメンテーション手法は、競合性能も達成できることを示す。
このフレームワークは、他のインスタンスレベルの認識タスクに容易に適応できる。
コードは、https://git.io/AdelaiDet.comで入手できる。
関連論文リスト
- SOLO: A Simple Framework for Instance Segmentation [84.00519148562606]
インスタンスカテゴリ"は、インスタンスの場所に応じて、インスタンス内の各ピクセルにカテゴリを割り当てる。
SOLO"は、強力なパフォーマンスを備えたインスタンスセグメンテーションのための、シンプルで、直接的で、高速なフレームワークです。
提案手法は, 高速化と精度の両面から, 実例分割の最先端結果を実現する。
論文 参考訳(メタデータ) (2021-06-30T09:56:54Z) - SipMask: Spatial Information Preservation for Fast Image and Video
Instance Segmentation [149.242230059447]
SipMaskと呼ばれる高速な単一ステージインスタンス分割法を提案する。
検出されたバウンディングボックスの異なるサブリージョンにインスタンスのマスク予測を分離することで、インスタンス固有の空間情報を保存する。
リアルタイム機能の面では、SipMaskはYOLACTを、同様の設定で3.0%(マスクAP)という絶対的なゲインで上回ります。
論文 参考訳(メタデータ) (2020-07-29T12:21:00Z) - CenterMask: single shot instance segmentation with point representation [16.464056972736838]
本稿では,シンプルで高速かつ高精度な単一ショット・インスタンス・セグメンテーション手法を提案する。
提案されたCenterMaskは12.3fpsのスピードで34.5マスクAPを達成した。
本手法はFCOSなどの他の一段物検出装置に容易に組み込むことができ,性能も良好である。
論文 参考訳(メタデータ) (2020-04-09T09:35:15Z) - SOLOv2: Dynamic and Fast Instance Segmentation [102.15325936477362]
パフォーマンスの高いシンプルで直接的で高速なインスタンスセグメンテーションフレームワークを構築しています。
オブジェクトセグメンタのマスクヘッドを動的に学習することで、さらに一歩前進する。
簡単な直接インスタンス分割システムを示し,高速化と精度の両面において,いくつかの最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-03-23T09:44:21Z) - PointINS: Point-based Instance Segmentation [117.38579097923052]
POI(Point-of-Interest)機能によるインスタンスセグメンテーションにおけるマスク表現は、各インスタンスの高次元マスク機能を学ぶには、計算負荷が重いため、難しい。
本稿では、このマスク表現学習タスクを2つの抽出可能なモジュールに分解するインスタンス認識畳み込みを提案する。
インスタンス認識の畳み込みとともに、単純で実用的なインスタンスセグメンテーションアプローチであるPointINSを提案する。
論文 参考訳(メタデータ) (2020-03-13T08:24:58Z) - BlendMask: Top-Down Meets Bottom-Up for Instance Segmentation [103.74690082121079]
本研究では,インスタンスレベルの情報とセマンティックな情報と,低レベルの微細な粒度を効果的に組み合わせることで,マスク予測の改善を実現する。
私たちの主な貢献は、トップダウンとボトムアップの両方のインスタンスセグメンテーションアプローチからインスピレーションを得たブレンダーモジュールです。
BlendMaskは、非常に少ないチャネルで、ピクセルあたりの高密度な位置感受性インスタンス機能を効果的に予測し、単一の畳み込み層で各インスタンスの注意マップを学習することができる。
論文 参考訳(メタデータ) (2020-01-02T03:30:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。