論文の概要: Pointly-Supervised Instance Segmentation
- arxiv url: http://arxiv.org/abs/2104.06404v1
- Date: Tue, 13 Apr 2021 17:59:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 13:25:21.646795
- Title: Pointly-Supervised Instance Segmentation
- Title(参考訳): 点教師付きインスタンスセグメンテーション
- Authors: Bowen Cheng and Omkar Parkhi and Alexander Kirillov
- Abstract要約: インスタンスセグメンテーションの弱い監視の新しい形態であるポイントベースのインスタンスレベルのアノテーションを提案する。
標準のバウンディングボックスアノテーションと、各バウンディングボックス内で一様にサンプリングされるラベル付きポイントを組み合わせる。
実験では,COCO,PASCAL VOC,Cityscapes,LVISでトレーニングしたMask R-CNNモデルに対して,各オブジェクトあたりの注釈付きポイントが94%~98%の完全教師付きパフォーマンスを達成した。
- 参考スコア(独自算出の注目度): 81.34136519194602
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose point-based instance-level annotation, a new form of weak
supervision for instance segmentation. It combines the standard bounding box
annotation with labeled points that are uniformly sampled inside each bounding
box. We show that the existing instance segmentation models developed for full
mask supervision, like Mask R-CNN, can be seamlessly trained with the
point-based annotation without any major modifications. In our experiments,
Mask R-CNN models trained on COCO, PASCAL VOC, Cityscapes, and LVIS with only
10 annotated points per object achieve 94%--98% of their fully-supervised
performance. The new point-based annotation is approximately 5 times faster to
collect than object masks, making high-quality instance segmentation more
accessible for new data.
Inspired by the new annotation form, we propose a modification to PointRend
instance segmentation module. For each object, the new architecture, called
Implicit PointRend, generates parameters for a function that makes the final
point-level mask prediction. Implicit PointRend is more straightforward and
uses a single point-level mask loss. Our experiments show that the new module
is more suitable for the proposed point-based supervision.
- Abstract(参考訳): 我々は,インスタンスセグメンテーションに対する新しい弱い監督形態である,ポイントベースのインスタンスレベルアノテーションを提案する。
標準のバウンディングボックスアノテーションと、各バウンディングボックス内で一様にサンプリングされるラベル付きポイントを組み合わせる。
Mask R-CNNのようなマスクの完全な監視のために開発された既存のインスタンスセグメンテーションモデルは、主要な変更を加えることなく、ポイントベースのアノテーションでシームレスにトレーニングできることを示す。
実験では,COCO,PASCAL VOC,Cityscapes,LVISでトレーニングしたMask R-CNNモデルに対して,各オブジェクトあたりの注釈付きポイントが94%~98%を占めた。
新しいポイントベースのアノテーションは、オブジェクトマスクよりも収集が約5倍速く、新しいデータに対して高品質なインスタンスセグメンテーションがよりアクセスしやすい。
新しいアノテーション形式にインスパイアされた我々は、PointRendインスタンスセグメンテーションモジュールの変更を提案する。
それぞれのオブジェクトに対して、Implicit PointRendと呼ばれる新しいアーキテクチャは、最終的なポイントレベルのマスク予測を行う関数のパラメータを生成する。
Implicit PointRendはより単純で、単一のポイントレベルのマスクロスを使用する。
実験では,提案する点に基づく監督に,新しいモジュールがより適していることを示す。
関連論文リスト
- Bridge the Points: Graph-based Few-shot Segment Anything Semantically [79.1519244940518]
プレトレーニング技術の最近の進歩により、視覚基礎モデルの能力が向上した。
最近の研究はSAMをFew-shot Semantic segmentation (FSS)に拡張している。
本稿では,グラフ解析に基づく簡易かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-09T15:02:28Z) - Extreme Point Supervised Instance Segmentation [28.191795758445352]
本稿では,各オブジェクトの極端点,左極端点,最下極点,右極端点を用いて,インスタンスセグメンテーションを学習するための新しいアプローチを提案する。
これらの点は、正確なセグメンテーションのための強力な手がかりを提供しながら、現代のバウンディングボックスアノテーションプロセスで容易に利用可能である。
本モデルでは,対象物を複数の部品に分けた場合に高品質なマスクを生成する。
論文 参考訳(メタデータ) (2024-05-31T09:37:39Z) - What is Point Supervision Worth in Video Instance Segmentation? [119.71921319637748]
ビデオインスタンスセグメンテーション(VIS)は、ビデオ内のオブジェクトを検出し、セグメンテーションし、追跡することを目的とした、難しいビジョンタスクである。
トレーニング中、ビデオフレーム内の各オブジェクトについて、人間のアノテーションを1点に減らし、完全に教師されたモデルに近い高品質なマスク予測を得る。
3つのVISベンチマークに関する総合的な実験は、提案フレームワークの競合性能を示し、完全に教師付きされた手法にほぼ一致する。
論文 参考訳(メタデータ) (2024-04-01T17:38:25Z) - PWISeg: Point-based Weakly-supervised Instance Segmentation for Surgical
Instruments [27.89003436883652]
我々はPWISeg (Point-based Weakly-supervised Instance) という,弱制御型手術器具セグメンテーション手法を提案する。
PWISegは、特徴点とバウンディングボックスの関係をモデル化するために、ポイント・ツー・ボックスとポイント・ツー・マスクのブランチを備えたFCNベースのアーキテクチャを採用している。
そこで本研究では,キー・ツー・マスク・ブランチを駆動し,より正確なセグメンテーション予測を生成するキー・ピクセル・アソシエーション・ロスとキー・ピクセル・アソシエーション・ロスを提案する。
論文 参考訳(メタデータ) (2023-11-16T11:48:29Z) - FreePoint: Unsupervised Point Cloud Instance Segmentation [72.64540130803687]
点クラウド上の教師なしクラス非依存のインスタンスセグメンテーションを探索するためのFreePointを提案する。
我々は、座標、色、そして自己監督の深い特徴を組み合わせることで、点の特徴を表現する。
ポイント機能に基づいて、ポイントクラウドを擬似ラベルとして粗いインスタンスマスクに分割し、ポイントクラウドインスタンスセグメンテーションモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-05-11T16:56:26Z) - Box-supervised Instance Segmentation with Level Set Evolution [41.19797478617953]
本稿では,古典的レベルセットモデルと深層ニューラルネットワークを微妙に統合したボックス教師付きインスタンスセグメンテーション手法を提案する。
単純なマスク管理SOLOv2モデルを用いて、各インスタンスのレベルセットとして、インスタンス認識マスクマップを予測する。
4つの挑戦的ベンチマークの実験結果から,提案手法の先行性能が示された。
論文 参考訳(メタデータ) (2022-07-19T03:59:44Z) - SOLO: A Simple Framework for Instance Segmentation [84.00519148562606]
インスタンスカテゴリ"は、インスタンスの場所に応じて、インスタンス内の各ピクセルにカテゴリを割り当てる。
SOLO"は、強力なパフォーマンスを備えたインスタンスセグメンテーションのための、シンプルで、直接的で、高速なフレームワークです。
提案手法は, 高速化と精度の両面から, 実例分割の最先端結果を実現する。
論文 参考訳(メタデータ) (2021-06-30T09:56:54Z) - PointINS: Point-based Instance Segmentation [117.38579097923052]
POI(Point-of-Interest)機能によるインスタンスセグメンテーションにおけるマスク表現は、各インスタンスの高次元マスク機能を学ぶには、計算負荷が重いため、難しい。
本稿では、このマスク表現学習タスクを2つの抽出可能なモジュールに分解するインスタンス認識畳み込みを提案する。
インスタンス認識の畳み込みとともに、単純で実用的なインスタンスセグメンテーションアプローチであるPointINSを提案する。
論文 参考訳(メタデータ) (2020-03-13T08:24:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。