論文の概要: Block Annotation: Better Image Annotation for Semantic Segmentation with
Sub-Image Decomposition
- arxiv url: http://arxiv.org/abs/2002.06626v1
- Date: Sun, 16 Feb 2020 17:42:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-31 17:57:35.490609
- Title: Block Annotation: Better Image Annotation for Semantic Segmentation with
Sub-Image Decomposition
- Title(参考訳): Block Annotation: 部分画像分解による意味分割のためのより良い画像アノテーション
- Authors: Hubert Lin, Paul Upchurch, Kavita Bala
- Abstract要約: フルイメージのアノテーションは高価で、専門家は1枚あたり90分まで費やしている。
本稿では,フルイメージアノテーションの代替としてブロックサブイメージアノテーションを提案する。
ブロックアノテーションはフルイメージアノテーションよりも高い品質でクラウドソースできることがわかった。
- 参考スコア(独自算出の注目度): 18.67383884921177
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image datasets with high-quality pixel-level annotations are valuable for
semantic segmentation: labelling every pixel in an image ensures that rare
classes and small objects are annotated. However, full-image annotations are
expensive, with experts spending up to 90 minutes per image. We propose block
sub-image annotation as a replacement for full-image annotation. Despite the
attention cost of frequent task switching, we find that block annotations can
be crowdsourced at higher quality compared to full-image annotation with equal
monetary cost using existing annotation tools developed for full-image
annotation. Surprisingly, we find that 50% pixels annotated with blocks allows
semantic segmentation to achieve equivalent performance to 100% pixels
annotated. Furthermore, as little as 12% of pixels annotated allows performance
as high as 98% of the performance with dense annotation. In weakly-supervised
settings, block annotation outperforms existing methods by 3-4% (absolute)
given equivalent annotation time. To recover the necessary global structure for
applications such as characterizing spatial context and affordance
relationships, we propose an effective method to inpaint block-annotated images
with high-quality labels without additional human effort. As such, fewer
annotations can also be used for these applications compared to full-image
annotation.
- Abstract(参考訳): 画像内のすべてのピクセルをラベル付けすることで、希少なクラスや小さなオブジェクトが注釈付けされることが保証される。
しかし、フルイメージのアノテーションは高価で、専門家は画像あたり90分を費やしている。
フルイメージアノテーションの代替としてブロックサブイメージアノテーションを提案する。
頻繁なタスク切り替えの注意コストにもかかわらず、フルイメージアノテーション用に開発された既存のアノテーションツールを使用して、同じ金銭的コストでフルイメージアノテーションよりも高い品質でブロックアノテーションをクラウドソースできることがわかった。
驚いたことに、ブロックでアノテートされた50%ピクセルは、セマンティックセグメンテーションによって100%ピクセルアノテートされた同等のパフォーマンスを達成することができる。
さらに、アノテートされたピクセルの12%は、高密度アノテーションによるパフォーマンスの98%までの性能を実現している。
弱い教師付き設定では、ブロックアノテーションは、等価なアノテーション時間によって既存のメソッドを3.4%(絶対)上回る。
空間的文脈やアフォーアンス関係を特徴付けるようなアプリケーションに必要なグローバル構造を回復するために,高品質のラベル付きブロックアノテート画像に人間の努力を伴わない効果的な手法を提案する。
そのため、フルイメージのアノテーションに比べ、これらのアプリケーションで使用するアノテーションも少なくなります。
関連論文リスト
- Learning Semantic Segmentation with Query Points Supervision on Aerial Images [57.09251327650334]
セマンティックセグメンテーションアルゴリズムを学習するための弱教師付き学習アルゴリズムを提案する。
提案手法は正確なセマンティックセグメンテーションを行い,手作業のアノテーションに要するコストと時間を大幅に削減することで効率を向上する。
論文 参考訳(メタデータ) (2023-09-11T14:32:04Z) - Toward Real-Time Image Annotation Using Marginalized Coupled Dictionary
Learning [0.0]
限られた数の視覚的プロトタイプとそれに対応するセマンティクスを同時に学習するために,新しい統合辞書学習手法を提案する。
このアプローチはリアルタイムな画像アノテーションの手順につながる。
論文 参考訳(メタデータ) (2023-04-14T03:01:44Z) - From colouring-in to pointillism: revisiting semantic segmentation
supervision [48.637031591058175]
本稿では,意味的セグメンテーションアノテーションに対するポジリスト的アプローチを提案する。
Open Imagesデータセットで4,171のクラスに2260万のポイントラベルを収集してリリースしました。
論文 参考訳(メタデータ) (2022-10-25T16:42:03Z) - Noisy Boundaries: Lemon or Lemonade for Semi-supervised Instance
Segmentation? [59.25833574373718]
ピクセルレベルの擬似ラベルを割り当てることで、半教師付きインスタンスセグメンテーションのためのフレームワークを構築する。
この枠組みでは、擬似ラベルに関連付けられたノイズ境界が二重辺になっていることを指摘した。
我々はそれらを同時に活用し、抵抗することを提案する。
論文 参考訳(メタデータ) (2022-03-25T03:06:24Z) - Rethinking Crowdsourcing Annotation: Partial Annotation with Salient
Labels for Multi-Label Image Classification [20.48996482670661]
本稿では,クラウドソーシングによる画像アノテーションの再考を提案する。
我々の仮説は、アノテータが有意なラベルを持つ複数ラベルの画像を部分的にアノテートするだけでは、アノテーションエラーが少なくなるというものである。
同じアノテーション予算で、有能なアノテーションを持つ画像で教師されるマルチラベル画像が、完全に注釈付けされた画像で教師されるモデルより優れていることを示す。
論文 参考訳(メタデータ) (2021-09-06T18:28:53Z) - Semi-supervised Semantic Segmentation with Directional Context-aware
Consistency [66.49995436833667]
我々は、ラベル付きデータの小さなセットに、全くラベル付けされていない画像のより大きなコレクションを提供する半教師付きセグメンテーション問題に焦点をあてる。
好ましいハイレベル表現は、自己認識を失わずにコンテキスト情報をキャプチャするべきである。
我々は,DCロス(Directional Contrastive Loss)を画素対ピクセルの整合性を達成するために提示する。
論文 参考訳(メタデータ) (2021-06-27T03:42:40Z) - Effectively Leveraging Attributes for Visual Similarity [52.2646549020835]
Pairwise Attribute-Informed similarity Network (PAN) を提案する。このネットワークは、類似性学習を2つの画像の共同表現から類似性条件と関連性スコアをキャプチャする。
PANは、Polyvore Outfits上の服品間の互換性予測を4-9%改善し、Caltech-UCSD Birds (CUB)を使用した画像の少数分類で5%向上し、In-Shop Clothes RetrievalでRecall@1に1%アップした。
論文 参考訳(メタデータ) (2021-05-04T18:28:35Z) - Universal Weakly Supervised Segmentation by Pixel-to-Segment Contrastive
Learning [28.498782661888775]
半教師付きメトリック学習問題として弱教師付きセグメンテーションを定式化する。
特徴空間における画素とセグメント間のコントラスト関係を4種類提案する。
我々はPascal VOCとDensePoseに大きな利益をもたらす、普遍的な弱教師付きセグメンタを提供する。
論文 参考訳(メタデータ) (2021-05-03T15:49:01Z) - Rethinking Interactive Image Segmentation: Feature Space Annotation [68.8204255655161]
本稿では,特徴空間投影による複数画像からの対話的・同時セグメントアノテーションを提案する。
本手法は,前景セグメンテーションデータセットにおける最先端手法の精度を上回ることができることを示す。
論文 参考訳(メタデータ) (2021-01-12T10:13:35Z) - Few-Shot Semantic Segmentation Augmented with Image-Level Weak
Annotations [23.02986307143718]
ショットセマンティックセグメンテーションの最近の進歩は、わずか数ピクセルレベルの注釈付き例によってこの問題に対処している。
私たちのキーとなるアイデアは、イメージレベルのラベル付きデータから知識を融合させることで、クラスのより優れたプロトタイプ表現を学ぶことです。
画像レベルのアノテーションを統合することで,距離空間におけるクラスプロトタイプ表現を学習するための新しいフレームワークPAIAを提案する。
論文 参考訳(メタデータ) (2020-07-03T04:58:20Z) - Context Aware Image Annotation in Active Learning [0.38073142980733]
画像メタデータを類似度指標として用いたコンテキスト認識画像フレームワーク(CAIAF)を提案する。
実験により,CAIAFのアノテーションコストを従来のフレームワークと比較して低減し,高い分類性能を維持した。
論文 参考訳(メタデータ) (2020-02-06T16:57:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。