論文の概要: UniInst: Unique Representation for End-to-End Instance Segmentation
- arxiv url: http://arxiv.org/abs/2205.12646v2
- Date: Thu, 26 May 2022 04:41:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-27 10:36:59.768081
- Title: UniInst: Unique Representation for End-to-End Instance Segmentation
- Title(参考訳): UniInst: エンドツーエンドインスタンスセグメンテーションのためのユニークな表現
- Authors: Yimin Ou, Rui Yang, Lufan Ma, Yong Liu, Jiangpeng Yan, Shang Xu,
Chengjie Wang, Xiu Li
- Abstract要約: ボックスフリーでNMSフリーなエンドツーエンドのインスタンスセグメンテーションフレームワークUniInstを提案する。
具体的には、各インスタンスに1つのユニークな表現を動的に割り当てるインスタンス対応1対1の代入スキームを設計する。
これらの技術により、最初のFCNベースのエンドツーエンドインスタンスセグメンテーションフレームワークであるUniInstは、競争力のあるパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 29.974973664317485
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing instance segmentation methods have achieved impressive performance
but still suffer from a common dilemma: redundant representations (e.g.,
multiple boxes, grids, and anchor points) are inferred for one instance, which
leads to multiple duplicated predictions. Thus, mainstream methods usually rely
on a hand-designed non-maximum suppression (NMS) post-processing step to select
the optimal prediction result, which hinders end-to-end training. To address
this issue, we propose a box-free and NMS-free end-to-end instance segmentation
framework, termed UniInst, that yields only one unique representation for each
instance. Specifically, we design an instance-aware one-to-one assignment
scheme, namely Only Yield One Representation (OYOR), which dynamically assigns
one unique representation to each instance according to the matching quality
between predictions and ground truths. Then, a novel prediction re-ranking
strategy is elegantly integrated into the framework to address the misalignment
between the classification score and the mask quality, enabling the learned
representation to be more discriminative. With these techniques, our UniInst,
the first FCN-based end-to-end instance segmentation framework, achieves
competitive performance, e.g., 39.0 mask AP using ResNet-50-FPN and 40.2 mask
AP using ResNet-101-FPN, against mainstream methods on COCO test-dev. Moreover,
the proposed instance-aware method is robust to occlusion scenes, outperforming
common baselines by remarkable mask AP on the heavily-occluded OCHuman
benchmark. Our codes will be available upon publication.
- Abstract(参考訳): 既存のインスタンスセグメンテーション法は印象的な性能を達成しているが、それでも共通のジレンマに悩まされている: 冗長表現(例えば、複数のボックス、グリッド、アンカーポイント)は1つのインスタンスに対して推論され、複数の重複予測をもたらす。
したがって、主流の手法は通常、最適な予測結果を選択するために手動設計の非最大抑圧(NMS)後処理ステップに依存しており、エンドツーエンドのトレーニングを妨げている。
この問題に対処するために、各インスタンスに対して1つのユニークな表現しか得られない、ボックスフリーかつnmsフリーのエンドツーエンドインスタンスセグメンテーションフレームワーク、uniinstを提案する。
具体的には,各インスタンスに1つのユニークな表現を,予測と基底真理の一致した品質に応じて動的に割り当てる,インスタンス対応の1対1の代入スキーム(OYOR)を設計する。
そして、新しい予測再ランキング戦略をフレームワークにエレガントに統合し、分類スコアとマスク品質のずれに対処することにより、学習した表現をより判別することができる。
これらの技術により、最初のFCNベースのエンドツーエンドインスタンスセグメンテーションフレームワークであるUniInstは、ResNet-50-FPNを使用した39.0マスクAPと、ResNet-101-FPNを使用した40.2マスクAPと、COCOテスト-devのメインストリームメソッドに対する競合的なパフォーマンスを実現する。
さらに,提案手法は閉塞シーンに対して頑健であり,OCHumanベンチマークにおいて顕著なマスクAPにより共通のベースラインを上回っている。
私たちのコードは出版時に利用可能になります。
関連論文リスト
- Bridge the Points: Graph-based Few-shot Segment Anything Semantically [79.1519244940518]
プレトレーニング技術の最近の進歩により、視覚基礎モデルの能力が向上した。
最近の研究はSAMをFew-shot Semantic segmentation (FSS)に拡張している。
本稿では,グラフ解析に基づく簡易かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-09T15:02:28Z) - Complete Instances Mining for Weakly Supervised Instance Segmentation [6.177842623752537]
画像レベルのラベルのみを用いた弱教師付きインスタンスセグメンテーション(WSIS)のための新しい手法を提案する。
我々はMaskIoUヘッドを使用して提案の整合性のスコアを予測するとともに,冗長なセグメンテーション問題を明示的にモデル化するための完全インスタンスマイニング(CIM)戦略を提案する。
弊社のアプローチは、複数のインスタンスや完全なインスタンスをネットワークが認識できるようにし、アンチノイズ戦略を取り入れることで、その堅牢性をさらに向上する。
論文 参考訳(メタデータ) (2024-02-12T13:16:47Z) - Beyond the Prototype: Divide-and-conquer Proxies for Few-shot
Segmentation [63.910211095033596]
少ないショットのセグメンテーションは、少数の濃密なラベル付けされたサンプルのみを与えられた、目に見えないクラスオブジェクトをセグメンテーションすることを目的としている。
分割・分散の精神において, 単純かつ多目的な枠組みを提案する。
提案手法は、DCP(disvision-and-conquer proxies)と呼ばれるもので、適切な信頼性のある情報の開発を可能にする。
論文 参考訳(メタデータ) (2022-04-21T06:21:14Z) - ISTR: End-to-End Instance Segmentation with Transformers [147.14073165997846]
ISTRと呼ばれるインスタンスセグメンテーショントランスフォーマーを提案します。これは、その種類の最初のエンドツーエンドフレームワークです。
ISTRは低次元マスクの埋め込みを予測し、それらのマスクの埋め込みと一致する。
ISTRは、提案されたエンドツーエンドのメカニズムにより、近似ベースのサブオプティマティック埋め込みでも最先端のパフォーマンスを発揮します。
論文 参考訳(メタデータ) (2021-05-03T06:00:09Z) - The Devil is in the Boundary: Exploiting Boundary Representation for
Basis-based Instance Segmentation [85.153426159438]
本研究では,既存のグローバルマスクベースの手法を補完するグローバル境界表現を学習するために,Basisベースのインスタンス(B2Inst)を提案する。
私たちのB2Instは一貫した改善をもたらし、シーン内のインスタンス境界を正確に解析します。
論文 参考訳(メタデータ) (2020-11-26T11:26:06Z) - Mask-guided sample selection for Semi-Supervised Instance Segmentation [13.091166009687058]
半教師付きインスタンスセグメンテーションのためのアノテートするサンプルを決定するためのサンプル選択手法を提案する。
本手法は, サンプルのラベル付きプールに対する擬似マスクの初回予測と, マスクの質を予測するスコアから構成される。
品質スコアからアノテートしたほうがよいサンプルについて検討し, ランダム選択よりも優れた手法を示す。
論文 参考訳(メタデータ) (2020-08-25T14:44:58Z) - Mask Encoding for Single Shot Instance Segmentation [97.99956029224622]
マスクエンコーディングに基づくインスタンスセグメンテーション(MEInst)と呼ばれる単純なシングルショットインスタンスセグメンテーションフレームワークを提案する。
二次元マスクを直接予測する代わりに、MEInstはそれをコンパクトで固定的な表現ベクトルに蒸留する。
よりシンプルでフレキシブルな一段階のインスタンスセグメンテーション手法は、競合性能も達成できることを示す。
論文 参考訳(メタデータ) (2020-03-26T02:51:17Z) - PointINS: Point-based Instance Segmentation [117.38579097923052]
POI(Point-of-Interest)機能によるインスタンスセグメンテーションにおけるマスク表現は、各インスタンスの高次元マスク機能を学ぶには、計算負荷が重いため、難しい。
本稿では、このマスク表現学習タスクを2つの抽出可能なモジュールに分解するインスタンス認識畳み込みを提案する。
インスタンス認識の畳み込みとともに、単純で実用的なインスタンスセグメンテーションアプローチであるPointINSを提案する。
論文 参考訳(メタデータ) (2020-03-13T08:24:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。