論文の概要: Real-time Instance Segmentation with Discriminative Orientation Maps
- arxiv url: http://arxiv.org/abs/2106.12204v1
- Date: Wed, 23 Jun 2021 07:27:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-24 15:21:56.489532
- Title: Real-time Instance Segmentation with Discriminative Orientation Maps
- Title(参考訳): 識別指向マップを用いたリアルタイムインスタンス分割
- Authors: Wentao Du, Zhiyu Xiang, Shuya Chen, Chengyu Qiao, Yiman Chen and
Tingming Bai
- Abstract要約: 本論文では,OrienMaskと呼ばれるリアルタイムインスタンス分割フレームワークを提案する。
いくつかの識別方向マップを予測するためにマスクヘッドが追加される。
同じアンカーサイズにマッチするすべてのインスタンスは、共通の向きマップを共有する。
- 参考スコア(独自算出の注目度): 0.16311150636417257
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although instance segmentation has made considerable advancement over recent
years, it's still a challenge to design high accuracy algorithms with real-time
performance. In this paper, we propose a real-time instance segmentation
framework termed OrienMask. Upon the one-stage object detector YOLOv3, a mask
head is added to predict some discriminative orientation maps, which are
explicitly defined as spatial offset vectors for both foreground and background
pixels. Thanks to the discrimination ability of orientation maps, masks can be
recovered without the need for extra foreground segmentation. All instances
that match with the same anchor size share a common orientation map. This
special sharing strategy reduces the amortized memory utilization for mask
predictions but without loss of mask granularity. Given the surviving box
predictions after NMS, instance masks can be concurrently constructed from the
corresponding orientation maps with low complexity. Owing to the concise design
for mask representation and its effective integration with the anchor-based
object detector, our method is qualified under real-time conditions while
maintaining competitive accuracy. Experiments on COCO benchmark show that
OrienMask achieves 34.8 mask AP at the speed of 42.7 fps evaluated with a
single RTX 2080 Ti. The code is available at https://github.com/duwt/OrienMask.
- Abstract(参考訳): インスタンスのセグメンテーションは近年かなり進歩していますが、リアルタイムパフォーマンスで高精度なアルゴリズムを設計することは依然として課題です。
本稿では,OrienMaskと呼ばれるリアルタイムインスタンスセグメンテーションフレームワークを提案する。
一段物検出器YOLOv3では、マスクヘッドが追加され、前景および背景画素の両方の空間オフセットベクトルとして明示的に定義される識別向きマップが予測される。
方位マップの識別能力のおかげで、余分なフォアグラウンドセグメンテーションを必要とせずにマスクを復元できる。
同じアンカーサイズにマッチするすべてのインスタンスは、共通の向きマップを共有する。
この特別な共有戦略は、マスクの粒度が失われることなく、マスク予測のメモリ使用量を削減する。
NMS後に残るボックス予測を考慮すれば、インスタンスマスクは複雑さの低い対応する向きマップから同時に構築することができる。
マスク表現の簡潔な設計とアンカーベースオブジェクト検出器との効果的な統合により,本手法は競争精度を維持しつつ,リアルタイム条件下での精度が確保できる。
COCOベンチマークの実験では、OrienMaskは1つのRTX 2080 Tiで評価された42.7 fpsの速度で34.8マスクAPを達成した。
コードはhttps://github.com/duwt/orienmaskで入手できる。
関連論文リスト
- Bridge the Points: Graph-based Few-shot Segment Anything Semantically [79.1519244940518]
プレトレーニング技術の最近の進歩により、視覚基礎モデルの能力が向上した。
最近の研究はSAMをFew-shot Semantic segmentation (FSS)に拡張している。
本稿では,グラフ解析に基づく簡易かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-09T15:02:28Z) - EffSeg: Efficient Fine-Grained Instance Segmentation using
Structure-Preserving Sparsity [41.24728444810133]
本稿では,SPS(Structure-Preserving Sparsity)手法を用いて,インスタンスの細粒度セグメンテーションを効率的に行うことを提案する。
EffSegは、RefineMaskと比較してCOCOで同様のパフォーマンスを実現し、FLOPの数を71%削減し、FPSを29%増やした。
論文 参考訳(メタデータ) (2023-07-04T07:58:23Z) - Mask Transfiner for High-Quality Instance Segmentation [95.74244714914052]
高品質で効率的なインスタンスセグメンテーションのためのMask Transfinerを提案する。
当社のアプローチでは, エラーが発生しやすい木ノードを検出し, エラーを並列に自己修正する。
私たちのコードとトレーニングされたモデルは、http://vis.xyz/pub/transfiner.comで公開されます。
論文 参考訳(メタデータ) (2021-11-26T18:58:22Z) - BoxInst: High-Performance Instance Segmentation with Box Annotations [102.10713189544947]
本稿では,トレーニング用バウンディングボックスアノテーションのみを用いて,マスクレベルのインスタンスセグメンテーションを実現する高性能な手法を提案する。
私たちの中核となる考え方は、セグメンテーションネットワーク自体を変更することなく、インスタンスセグメンテーションにおける学習マスクの喪失を活用することです。
論文 参考訳(メタデータ) (2020-12-03T22:27:55Z) - SipMask: Spatial Information Preservation for Fast Image and Video
Instance Segmentation [149.242230059447]
SipMaskと呼ばれる高速な単一ステージインスタンス分割法を提案する。
検出されたバウンディングボックスの異なるサブリージョンにインスタンスのマスク予測を分離することで、インスタンス固有の空間情報を保存する。
リアルタイム機能の面では、SipMaskはYOLACTを、同様の設定で3.0%(マスクAP)という絶対的なゲインで上回ります。
論文 参考訳(メタデータ) (2020-07-29T12:21:00Z) - Mask Encoding for Single Shot Instance Segmentation [97.99956029224622]
マスクエンコーディングに基づくインスタンスセグメンテーション(MEInst)と呼ばれる単純なシングルショットインスタンスセグメンテーションフレームワークを提案する。
二次元マスクを直接予測する代わりに、MEInstはそれをコンパクトで固定的な表現ベクトルに蒸留する。
よりシンプルでフレキシブルな一段階のインスタンスセグメンテーション手法は、競合性能も達成できることを示す。
論文 参考訳(メタデータ) (2020-03-26T02:51:17Z) - BlendMask: Top-Down Meets Bottom-Up for Instance Segmentation [103.74690082121079]
本研究では,インスタンスレベルの情報とセマンティックな情報と,低レベルの微細な粒度を効果的に組み合わせることで,マスク予測の改善を実現する。
私たちの主な貢献は、トップダウンとボトムアップの両方のインスタンスセグメンテーションアプローチからインスピレーションを得たブレンダーモジュールです。
BlendMaskは、非常に少ないチャネルで、ピクセルあたりの高密度な位置感受性インスタンス機能を効果的に予測し、単一の畳み込み層で各インスタンスの注意マップを学習することができる。
論文 参考訳(メタデータ) (2020-01-02T03:30:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。