論文の概要: The Devil is in the Boundary: Exploiting Boundary Representation for
Basis-based Instance Segmentation
- arxiv url: http://arxiv.org/abs/2011.13241v1
- Date: Thu, 26 Nov 2020 11:26:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 09:06:17.556450
- Title: The Devil is in the Boundary: Exploiting Boundary Representation for
Basis-based Instance Segmentation
- Title(参考訳): The Devil is in the boundary: Exploiting boundary Representation for Basis-based Instance Segmentation
- Authors: Myungchul Kim, Sanghyun Woo, Dahun Kim, and In So Kweon
- Abstract要約: 本研究では,既存のグローバルマスクベースの手法を補完するグローバル境界表現を学習するために,Basisベースのインスタンス(B2Inst)を提案する。
私たちのB2Instは一貫した改善をもたらし、シーン内のインスタンス境界を正確に解析します。
- 参考スコア(独自算出の注目度): 85.153426159438
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pursuing a more coherent scene understanding towards real-time vision
applications, single-stage instance segmentation has recently gained
popularity, achieving a simpler and more efficient design than its two-stage
counterparts. Besides, its global mask representation often leads to superior
accuracy to the two-stage Mask R-CNN which has been dominant thus far. Despite
the promising advances in single-stage methods, finer delineation of instance
boundaries still remains unexcavated. Indeed, boundary information provides a
strong shape representation that can operate in synergy with the
fully-convolutional mask features of the single-stage segmenter. In this work,
we propose Boundary Basis based Instance Segmentation(B2Inst) to learn a global
boundary representation that can complement existing global-mask-based methods
that are often lacking high-frequency details. Besides, we devise a unified
quality measure of both mask and boundary and introduce a network block that
learns to score the per-instance predictions of itself. When applied to the
strongest baselines in single-stage instance segmentation, our B2Inst leads to
consistent improvements and accurately parse out the instance boundaries in a
scene. Regardless of being single-stage or two-stage frameworks, we outperform
the existing state-of-the-art methods on the COCO dataset with the same
ResNet-50 and ResNet-101 backbones.
- Abstract(参考訳): リアルタイム視覚アプリケーションに対するより一貫性のあるシーン理解によって、シングルステージのインスタンスセグメンテーションが最近人気を集め、2段階のアプリケーションよりもシンプルで効率的な設計を実現している。
さらに、そのグローバルマスク表現は、これまで支配的であった2段階のMask R-CNNよりも精度が高いことが多い。
単一ステージメソッドの有望な進歩にもかかわらず、インスタンス境界の細かいデライン化はまだ未解決のままである。
実際、境界情報は、単段セグメンタの完全な畳み込みマスク特徴と相乗的に操作できる強力な形状表現を提供する。
本研究では,境界基底に基づくインスタンスセグメンテーション(B2Inst)を提案し,高頻度の詳細を欠く既存のグローバルマスクベースの手法を補完するグローバル境界表現を学習する。
さらに,マスクとバウンダリの両面を統一した品質尺度を考案し,ネットワークブロックを導入し,各インスタンスごとの予測を学習する。
シングルステージインスタンスセグメンテーションにおける最強のベースラインに適用すると、B2Instは一貫した改善をもたらし、シーン内のインスタンス境界を正確に解析します。
単一ステージあるいは2ステージのフレームワークであっても、私たちは、同じResNet-50とResNet-101バックボーンで、COCOデータセットの既存の最先端メソッドよりも優れています。
関連論文リスト
- BLADE: Box-Level Supervised Amodal Segmentation through Directed
Expansion [10.57956193654977]
Boxレベルの教師付きアモーダルセグメンテーションは、この課題に対処する。
可視マスクから対応するアモーダルマスクへの指向性拡張アプローチを導入することで,新しい解を提案する。
このアプローチでは、オーバーラップする領域 – 異なるインスタンスが交わる領域 – に基づいた、ハイブリッドなエンドツーエンドネットワークが関係しています。
論文 参考訳(メタデータ) (2024-01-03T09:37:03Z) - Exploiting Shape Cues for Weakly Supervised Semantic Segmentation [15.791415215216029]
弱教師付きセマンティックセマンティックセグメンテーション (WSSS) は、画像レベルのラベルのみをトレーニング用として、画素単位のクラス予測を生成することを目的としている。
畳み込みニューラルネットワーク(CNN)のテクスチャバイアス特性を補うために形状情報を活用することを提案する。
我々は、クラスと色親和性の両方を考慮した新しい改良手法により、オンライン方式で予測をさらに洗練する。
論文 参考訳(メタデータ) (2022-08-08T17:25:31Z) - Semantic Attention and Scale Complementary Network for Instance
Segmentation in Remote Sensing Images [54.08240004593062]
本稿では,セマンティックアテンション(SEA)モジュールとスケール補完マスクブランチ(SCMB)で構成される,エンドツーエンドのマルチカテゴリインスタンスセグメンテーションモデルを提案する。
SEAモジュールは、機能マップ上の興味あるインスタンスのアクティベーションを強化するために、追加の監督を備えた、単純な完全な畳み込みセマンティックセマンティックセマンティクスブランチを含んでいる。
SCMBは、元のシングルマスクブランチをトリデントマスクブランチに拡張し、異なるスケールで補完マスクの監視を導入する。
論文 参考訳(メタデータ) (2021-07-25T08:53:59Z) - BoundarySqueeze: Image Segmentation as Boundary Squeezing [104.43159799559464]
本研究では,オブジェクトとシーンの微細な高画質画像分割のための新しい手法を提案する。
形態素画像処理技術による拡張と浸食に着想を得て,画素レベルのセグメンテーション問題をスクイーズ対象境界として扱う。
提案手法は,COCO,Cityscapesのインスタンス・セグメンテーション・セグメンテーション・セグメンテーションにおいて大きく向上し,同一条件下での精度・速度ともに従来のPointRendよりも優れていた。
論文 参考訳(メタデータ) (2021-05-25T04:58:51Z) - Look Closer to Segment Better: Boundary Patch Refinement for Instance
Segmentation [51.59290734837372]
境界品質を改善するために,概念的にシンプルで効果的な後処理改善フレームワークを提案する。
提案されたBPRフレームワークは、CityscapesベンチマークのMask R-CNNベースラインを大幅に改善する。
BPRフレームワークをPolyTransform + SegFixベースラインに適用することで、Cityscapesのリーダーボードで1位に到達しました。
論文 参考訳(メタデータ) (2021-04-12T07:10:48Z) - Mask Encoding for Single Shot Instance Segmentation [97.99956029224622]
マスクエンコーディングに基づくインスタンスセグメンテーション(MEInst)と呼ばれる単純なシングルショットインスタンスセグメンテーションフレームワークを提案する。
二次元マスクを直接予測する代わりに、MEInstはそれをコンパクトで固定的な表現ベクトルに蒸留する。
よりシンプルでフレキシブルな一段階のインスタンスセグメンテーション手法は、競合性能も達成できることを示す。
論文 参考訳(メタデータ) (2020-03-26T02:51:17Z) - PointINS: Point-based Instance Segmentation [117.38579097923052]
POI(Point-of-Interest)機能によるインスタンスセグメンテーションにおけるマスク表現は、各インスタンスの高次元マスク機能を学ぶには、計算負荷が重いため、難しい。
本稿では、このマスク表現学習タスクを2つの抽出可能なモジュールに分解するインスタンス認識畳み込みを提案する。
インスタンス認識の畳み込みとともに、単純で実用的なインスタンスセグメンテーションアプローチであるPointINSを提案する。
論文 参考訳(メタデータ) (2020-03-13T08:24:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。