論文の概要: Scaling up instance annotation via label propagation
- arxiv url: http://arxiv.org/abs/2110.02277v1
- Date: Tue, 5 Oct 2021 18:29:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-07 14:27:26.700626
- Title: Scaling up instance annotation via label propagation
- Title(参考訳): ラベル伝搬によるインスタンスアノテーションのスケールアップ
- Authors: Dim P. Papadopoulos, Ethan Weber, Antonio Torralba
- Abstract要約: 本稿では,オブジェクトセグメンテーションマスクを用いた大規模データセット構築のための高効率アノテーション手法を提案する。
セグメンテーションモデルによるマスク予測に階層的クラスタリングを用いることにより,これらの類似性を生かした。
総アノテーション時間はたった290時間である100万個のオブジェクトセグメンテーションマスクが得られた。
- 参考スコア(独自算出の注目度): 69.8001043244044
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Manually annotating object segmentation masks is very time-consuming. While
interactive segmentation methods offer a more efficient alternative, they
become unaffordable at a large scale because the cost grows linearly with the
number of annotated masks. In this paper, we propose a highly efficient
annotation scheme for building large datasets with object segmentation masks.
At a large scale, images contain many object instances with similar appearance.
We exploit these similarities by using hierarchical clustering on mask
predictions made by a segmentation model. We propose a scheme that efficiently
searches through the hierarchy of clusters and selects which clusters to
annotate. Humans manually verify only a few masks per cluster, and the labels
are propagated to the whole cluster. Through a large-scale experiment to
populate 1M unlabeled images with object segmentation masks for 80 object
classes, we show that (1) we obtain 1M object segmentation masks with an total
annotation time of only 290 hours; (2) we reduce annotation time by 76x
compared to manual annotation; (3) the segmentation quality of our masks is on
par with those from manually annotated datasets. Code, data, and models are
available online.
- Abstract(参考訳): 手動でアノテートするオブジェクトセグメンテーションマスクは非常に時間がかかる。
対話型セグメンテーションはより効率的な代替手段を提供するが、アノテーション付きマスクの数でコストが線形に増加するため、大規模なスケールでは不可能になる。
本稿では,オブジェクトセグメンテーションマスクを用いた大規模データセット構築のための高効率アノテーション手法を提案する。
大規模な画像には、同じような外観のオブジェクトインスタンスが多数含まれている。
これらの類似性を,セグメンテーションモデルによるマスク予測に階層的クラスタリングを用いて活用する。
本稿では,クラスタ階層を効率的に探索し,どのクラスタにアノテートするかを選択する手法を提案する。
人間が手動でクラスタごとにマスクを数枚だけ検証し、ラベルはクラスタ全体に伝達される。
1Mのオブジェクトセグメンテーションマスクを80個のオブジェクトクラスに組み込んだ大規模な実験により,(1)総アノテーション時間のたった290時間で1Mのオブジェクトセグメンテーションマスクを得る,(2)手動アノテーションに比べて76倍のアノテーション時間を短縮する,(3)手動アノテーションによるデータセットと同等のセグメンテーション品質を持つ,などの結果を得た。
コード、データ、モデルはオンラインで入手できる。
関連論文リスト
- MaskUno: Switch-Split Block For Enhancing Instance Segmentation [0.0]
マスク予測を洗練されたROIを処理し、それらを分類し、特定のマスク予測者に割り当てるスイッチスプリットブロックに置き換えることを提案する。
平均平均精度(mAP)が2.03%上昇し,80クラスにおいて高い成績を示した。
論文 参考訳(メタデータ) (2024-07-31T10:12:14Z) - Mask-free OVIS: Open-Vocabulary Instance Segmentation without Manual
Mask Annotations [86.47908754383198]
Open-Vocabulary (OV) 法は、大規模な画像キャプチャペアと視覚言語モデルを利用して、新しいカテゴリを学習する。
提案手法は,イメージキャプションペアに存在するオブジェクトに対して,事前学習された視覚言語モデルの局所化能力を活用することで,擬似マスクアノテーションを生成する。
擬似マスクを用いてトレーニングした手法は,MS-COCOデータセットとOpenImagesデータセットのmAPスコアを大幅に改善する。
論文 参考訳(メタデータ) (2023-03-29T17:58:39Z) - Discovering Object Masks with Transformers for Unsupervised Semantic
Segmentation [75.00151934315967]
MaskDistillは教師なしセマンティックセグメンテーションのための新しいフレームワークである。
我々のフレームワークは、低レベルの画像キューにラッチを付けず、オブジェクト中心のデータセットに限らない。
論文 参考訳(メタデータ) (2022-06-13T17:59:43Z) - Few-shot semantic segmentation via mask aggregation [5.886986014593717]
セマンティックセグメンテーションは、ラベル付きデータが少ない新しいクラスを認識することを目的としている。
従来の研究では、これをピクセル単位の分類問題と見なしていた。
この問題に対処するためのマスクベースの分類手法を提案する。
論文 参考訳(メタデータ) (2022-02-15T07:13:09Z) - Mask Transfiner for High-Quality Instance Segmentation [95.74244714914052]
高品質で効率的なインスタンスセグメンテーションのためのMask Transfinerを提案する。
当社のアプローチでは, エラーが発生しやすい木ノードを検出し, エラーを並列に自己修正する。
私たちのコードとトレーニングされたモデルは、http://vis.xyz/pub/transfiner.comで公開されます。
論文 参考訳(メタデータ) (2021-11-26T18:58:22Z) - Per-Pixel Classification is Not All You Need for Semantic Segmentation [184.2905747595058]
マスク分類はセマンティックレベルのセグメンテーションタスクとインスタンスレベルのセグメンテーションタスクの両方を解くのに十分一般的である。
マスクの集合を予測する単純なマスク分類モデルであるMaskFormerを提案する。
提案手法は,現在の最先端セマンティック(ADE20Kでは55.6 mIoU)とパノプティックセグメンテーション(COCOでは52.7 PQ)モデルの両方に優れる。
論文 参考訳(メタデータ) (2021-07-13T17:59:50Z) - SOLO: A Simple Framework for Instance Segmentation [84.00519148562606]
インスタンスカテゴリ"は、インスタンスの場所に応じて、インスタンス内の各ピクセルにカテゴリを割り当てる。
SOLO"は、強力なパフォーマンスを備えたインスタンスセグメンテーションのための、シンプルで、直接的で、高速なフレームワークです。
提案手法は, 高速化と精度の両面から, 実例分割の最先端結果を実現する。
論文 参考訳(メタデータ) (2021-06-30T09:56:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。