論文の概要: BoxInst: High-Performance Instance Segmentation with Box Annotations
- arxiv url: http://arxiv.org/abs/2012.02310v1
- Date: Thu, 3 Dec 2020 22:27:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-23 14:51:28.331451
- Title: BoxInst: High-Performance Instance Segmentation with Box Annotations
- Title(参考訳): BoxInst: Boxアノテーションによる高性能インスタンスセグメンテーション
- Authors: Zhi Tian, Chunhua Shen, Xinlong Wang, Hao Chen
- Abstract要約: 本稿では,トレーニング用バウンディングボックスアノテーションのみを用いて,マスクレベルのインスタンスセグメンテーションを実現する高性能な手法を提案する。
私たちの中核となる考え方は、セグメンテーションネットワーク自体を変更することなく、インスタンスセグメンテーションにおける学習マスクの喪失を活用することです。
- 参考スコア(独自算出の注目度): 102.10713189544947
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present a high-performance method that can achieve mask-level instance
segmentation with only bounding-box annotations for training. While this
setting has been studied in the literature, here we show significantly stronger
performance with a simple design (e.g., dramatically improving previous best
reported mask AP of 21.1% in Hsu et al. (2019) to 31.6% on the COCO dataset).
Our core idea is to redesign the loss of learning masks in instance
segmentation, with no modification to the segmentation network itself. The new
loss functions can supervise the mask training without relying on mask
annotations. This is made possible with two loss terms, namely, 1) a surrogate
term that minimizes the discrepancy between the projections of the ground-truth
box and the predicted mask; 2) a pairwise loss that can exploit the prior that
proximal pixels with similar colors are very likely to have the same category
label. Experiments demonstrate that the redesigned mask loss can yield
surprisingly high-quality instance masks with only box annotations. For
example, without using any mask annotations, with a ResNet-101 backbone and 3x
training schedule, we achieve 33.2% mask AP on COCO test-dev split (vs. 39.1%
of the fully supervised counterpart). Our excellent experiment results on COCO
and Pascal VOC indicate that our method dramatically narrows the performance
gap between weakly and fully supervised instance segmentation.
Code is available at: https://git.io/AdelaiDet
- Abstract(参考訳): トレーニング用バウンディングボックスアノテーションのみを用いて,マスクレベルのインスタンスセグメンテーションを実現する高性能な手法を提案する。
この設定は文献で研究されているが、単純な設計(例えば、前回報告されたマスクapの21.1%をhsu等で劇的に改善するなど)で大幅に性能が向上している。
(2019) - COCOデータセットで31.6%。
私たちの核となるアイデアは、セグメンテーションネットワーク自体を変更することなく、インスタンスセグメンテーションにおける学習マスクの損失を再設計することです。
新しいロス機能は、マスクアノテーションに頼ることなく、マスクトレーニングを監視できる。
これにより、2つの損失項、すなわち1)接地箱の投影と予測マスクとの差を最小限に抑えるサロゲート項、2)類似色を持つ近位画素が同じカテゴリラベルを持つ可能性が非常に高いという先行を生かすことができる対方向の損失という2つの損失項が実現される。
再設計されたマスクの損失は、ボックスアノテーションだけで驚くほど高品質なインスタンスマスクを生み出すことができる。
例えば、マスクアノテーションを一切使わずに、ResNet-101のバックボーンと3xのトレーニングスケジュールを持ち、COCOテストデブ分割(vs.39.1%)で33.2%のマスクAPを達成する。
COCO と Pascal VOC の優れた実験結果から,本手法は弱小と完全教師付きインスタンスセグメンテーション間の性能ギャップを劇的に狭めることが示唆された。
コードは、https://git.io/AdelaiDet.comで入手できる。
関連論文リスト
- Mask Transfiner for High-Quality Instance Segmentation [95.74244714914052]
高品質で効率的なインスタンスセグメンテーションのためのMask Transfinerを提案する。
当社のアプローチでは, エラーが発生しやすい木ノードを検出し, エラーを並列に自己修正する。
私たちのコードとトレーニングされたモデルは、http://vis.xyz/pub/transfiner.comで公開されます。
論文 参考訳(メタデータ) (2021-11-26T18:58:22Z) - Mask is All You Need: Rethinking Mask R-CNN for Dense and
Arbitrary-Shaped Scene Text Detection [11.390163890611246]
Mask R-CNNは、任意の形のシーンテキストの検出とスポッティングのための強力なベースラインとして広く採用されている。
1つの提案には複数のインスタンスが存在する可能性があるため、マスクヘッドが異なるインスタンスを区別し、パフォーマンスを劣化させるのが難しくなる。
本稿では,各画素をテキストや非テキストに分類するのではなく,マスクヘッドがインスタンス全体の形状を予測することを学習する事例認識型マスク学習を提案する。
論文 参考訳(メタデータ) (2021-09-08T04:32:29Z) - Real-time Instance Segmentation with Discriminative Orientation Maps [0.16311150636417257]
本論文では,OrienMaskと呼ばれるリアルタイムインスタンス分割フレームワークを提案する。
いくつかの識別方向マップを予測するためにマスクヘッドが追加される。
同じアンカーサイズにマッチするすべてのインスタンスは、共通の向きマップを共有する。
論文 参考訳(メタデータ) (2021-06-23T07:27:35Z) - Mask Encoding for Single Shot Instance Segmentation [97.99956029224622]
マスクエンコーディングに基づくインスタンスセグメンテーション(MEInst)と呼ばれる単純なシングルショットインスタンスセグメンテーションフレームワークを提案する。
二次元マスクを直接予測する代わりに、MEInstはそれをコンパクトで固定的な表現ベクトルに蒸留する。
よりシンプルでフレキシブルな一段階のインスタンスセグメンテーション手法は、競合性能も達成できることを示す。
論文 参考訳(メタデータ) (2020-03-26T02:51:17Z) - SOLOv2: Dynamic and Fast Instance Segmentation [102.15325936477362]
パフォーマンスの高いシンプルで直接的で高速なインスタンスセグメンテーションフレームワークを構築しています。
オブジェクトセグメンタのマスクヘッドを動的に学習することで、さらに一歩前進する。
簡単な直接インスタンス分割システムを示し,高速化と精度の両面において,いくつかの最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-03-23T09:44:21Z) - PointINS: Point-based Instance Segmentation [117.38579097923052]
POI(Point-of-Interest)機能によるインスタンスセグメンテーションにおけるマスク表現は、各インスタンスの高次元マスク機能を学ぶには、計算負荷が重いため、難しい。
本稿では、このマスク表現学習タスクを2つの抽出可能なモジュールに分解するインスタンス認識畳み込みを提案する。
インスタンス認識の畳み込みとともに、単純で実用的なインスタンスセグメンテーションアプローチであるPointINSを提案する。
論文 参考訳(メタデータ) (2020-03-13T08:24:58Z) - BlendMask: Top-Down Meets Bottom-Up for Instance Segmentation [103.74690082121079]
本研究では,インスタンスレベルの情報とセマンティックな情報と,低レベルの微細な粒度を効果的に組み合わせることで,マスク予測の改善を実現する。
私たちの主な貢献は、トップダウンとボトムアップの両方のインスタンスセグメンテーションアプローチからインスピレーションを得たブレンダーモジュールです。
BlendMaskは、非常に少ないチャネルで、ピクセルあたりの高密度な位置感受性インスタンス機能を効果的に予測し、単一の畳み込み層で各インスタンスの注意マップを学習することができる。
論文 参考訳(メタデータ) (2020-01-02T03:30:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。