論文の概要: How Low Can We Go? Pixel Annotation for Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2201.10448v1
- Date: Tue, 25 Jan 2022 16:50:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-26 15:36:30.734815
- Title: How Low Can We Go? Pixel Annotation for Semantic Segmentation
- Title(参考訳): どれくらい低いのか?
意味セグメンテーションのためのピクセルアノテーション
- Authors: Daniel Kigli, Ariel Shamir, Shai Avidan
- Abstract要約: 画像のセグメンテーションに必要なラベル付きピクセルの数に、事前の知識を使わずに答える実験を行う。
私たちは、平均して、Oracleがネットワークをトレーニングするためには、ピクセルの0.1%以下(注釈付き)を明らかにする必要があることに気付きました。
2つの異なる実世界のデータセット上で、画像レベルとデータセットレベルの両方の実験を繰り返し、アノテーションのコストのごく一部を使って、完全に注釈付けされたデータセットのパフォーマンスに到達できることを見出した。
- 参考スコア(独自算出の注目度): 23.668568954294333
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: How many labeled pixels are needed to segment an image, without any prior
knowledge? We conduct an experiment to answer this question.
In our experiment, an Oracle is using Active Learning to train a network from
scratch. The Oracle has access to the entire label map of the image, but the
goal is to reveal as little pixel labels to the network as possible. We find
that, on average, the Oracle needs to reveal (i.e., annotate) less than $0.1\%$
of the pixels in order to train a network. The network can then label all
pixels in the image at an accuracy of more than $98\%$.
Based on this single-image-annotation experiment, we design an experiment to
quickly annotate an entire data set. In the data set level experiment the
Oracle trains a new network for each image from scratch. The network can then
be used to create pseudo-labels, which are the network predicted labels of the
unlabeled pixels, for the entire image. Only then, a data set level network is
trained from scratch on all the pseudo-labeled images at once.
We repeat both image level and data set level experiments on two, very
different, real-world data sets, and find that it is possible to reach the
performance of a fully annotated data set using a fraction of the annotation
cost.
- Abstract(参考訳): 画像のセグメンテーションに、事前に知識なくラベル付きピクセルは何個必要か?
私たちはこの質問に答える実験を行います。
私たちの実験では、OracleがActive Learningを使ってネットワークをゼロからトレーニングしています。
オラクルは画像のラベルマップ全体にアクセスできるが、目標はネットワークにできるだけ小さなピクセルラベルを明らかにすることである。
私たちは、平均して、ネットワークをトレーニングするために、オラクルは(注釈のような)ピクセルの0.1\%$以下を明かす必要があることを知っています。
ネットワークは、画像中のすべてのピクセルを98\%以上の精度でラベル付けすることができる。
この単一画像アノテーション実験に基づいて、データセット全体をすばやくアノテートする実験を設計する。
データセットレベルの実験では、oracleはスクラッチからイメージごとに新しいネットワークをトレーニングする。
このネットワークは、画像全体に対して、ラベルのないピクセルのラベルを予測したネットワークである擬似ラベルを作成するのに使うことができる。
そのときのみ、データセットレベルのネットワークは、擬似ラベル付きイメージを一度にスクラッチからトレーニングする。
2つの異なる実世界のデータセット上で、画像レベルとデータセットレベルの両方の実験を繰り返すと、アノテーションコストのごく一部を使って、完全に注釈付きデータセットのパフォーマンスに到達することができる。
関連論文リスト
- Distilling Self-Supervised Vision Transformers for Weakly-Supervised
Few-Shot Classification & Segmentation [58.03255076119459]
視覚変換器(ViT)を利用した弱教師付き小ショット画像分類とセグメンテーションの課題に対処する。
提案手法は,自己監督型ViTからトークン表現を抽出し,その相関関係を利用して分類とセグメンテーションの予測を行う。
Pascal-5iとCOCO-20iの実験は、様々な監視設定において大きなパフォーマンス向上を示した。
論文 参考訳(メタデータ) (2023-07-07T06:16:43Z) - G2NetPL: Generic Game-Theoretic Network for Partial-Label Image
Classification [14.82038002764209]
マルチラベル画像分類は、画像内の全ての可能なラベルを予測することを目的としている。
既存の部分ラベル学習の研究は、各トレーニングイメージが正負のラベルのサブセットでラベル付けされている場合に焦点を当てている。
本稿では、部分ラベル学習のためのエンドツーエンドのジェネリックゲーム理論ネットワーク(G2NetPL)を提案する。
論文 参考訳(メタデータ) (2022-10-20T17:59:21Z) - BigDatasetGAN: Synthesizing ImageNet with Pixel-wise Annotations [89.42397034542189]
我々は,GAN(Generative Adversarial Network)を介して,大規模ラベル付きデータセットを合成する。
我々は、ImageNetで訓練されたクラス条件生成モデルBigGANの画像サンプルを、すべての1kクラスに対して、クラス毎の5つのイメージを手動でアノテートする。
我々は、追加の8k実画像のセットをラベル付けして、新しいImageNetベンチマークを作成し、様々な設定でセグメンテーション性能を評価する。
論文 参考訳(メタデータ) (2022-01-12T20:28:34Z) - Maximize the Exploration of Congeneric Semantics for Weakly Supervised
Semantic Segmentation [27.155133686127474]
グラフニューラルネットワーク(P-GNN)を,同一のクラスラベルを含む異なる画像からの自己検出パッチに基づいて構築する。
PASCAL VOC 2012ベンチマークで実験を行い、そのモデルにより最先端の性能が得られた。
論文 参考訳(メタデータ) (2021-10-08T08:59:16Z) - KRADA: Known-region-aware Domain Alignment for Open World Semantic
Segmentation [64.03817806316903]
セマンティックセグメンテーションでは、画像中のすべてのピクセルにカテゴリラベルを割り当てるために、ピクセルレベルの分類器を訓練することを目指している。
オープンな世界では、ラベル付けされていないテスト画像はおそらく未知のカテゴリを含み、ラベル付けされた画像とは異なる分布を持つ。
本稿では,未知のクラスを識別し,ラベル付きおよびラベルなしのオープンワールド画像中の既知のクラスの分布を整列する,エンドツーエンドの学習フレームワークKRADAを提案する。
論文 参考訳(メタデータ) (2021-06-11T08:43:59Z) - DatasetGAN: Efficient Labeled Data Factory with Minimal Human Effort [117.41383937100751]
現在のディープネットワークは、大規模なデータセットのトレーニングの恩恵を受ける、非常にデータハングリーです。
GAN潜入コードがどのようにデコードされ、イメージのセマンティックセグメンテーションを生成するかを示す。
これらの生成されたデータセットは、実際のデータセットと同じように、コンピュータビジョンアーキテクチャのトレーニングに使用できます。
論文 参考訳(メタデータ) (2021-04-13T20:08:29Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - Re-labeling ImageNet: from Single to Multi-Labels, from Global to
Localized Labels [34.13899937264952]
ImageNetは間違いなく最も人気のある画像分類ベンチマークですが、ラベルノイズのかなりのレベルを持つものでもあります。
近年の研究では、シングルラベルベンチマークと仮定されているにもかかわらず、多くのサンプルが複数のクラスを含んでいることが示されている。
私たちは、単一ラベルアノテーションと効果的に複数のラベル画像の間のミスマッチは、ランダムな作物が適用されるトレーニングセットアップにおいて同様に問題であると主張しています。
論文 参考訳(メタデータ) (2021-01-13T11:55:58Z) - Reducing the Annotation Effort for Video Object Segmentation Datasets [50.893073670389164]
ピクセルマスクでフレームを密にラベル付けしても 大規模なデータセットにはスケールしない
我々は、より安価なバウンディングボックスアノテーションからピクセルレベルで擬似ラベルを自動生成するために、深層畳み込みネットワークを使用します。
我々は新しいTAO-VOSベンチマークを取得し、www.vision.rwth-aachen.de/page/taovosで公開している。
論文 参考訳(メタデータ) (2020-11-02T17:34:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。