論文の概要: Rethinking Crowdsourcing Annotation: Partial Annotation with Salient
Labels for Multi-Label Image Classification
- arxiv url: http://arxiv.org/abs/2109.02688v1
- Date: Mon, 6 Sep 2021 18:28:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-08 14:40:21.155738
- Title: Rethinking Crowdsourcing Annotation: Partial Annotation with Salient
Labels for Multi-Label Image Classification
- Title(参考訳): クラウドソーシングアノテーションの再考:複数ラベル画像分類のための有能ラベル付き部分アノテーション
- Authors: Jianzhe Lin, Tianze Yu, Z. Jane Wang
- Abstract要約: 本稿では,クラウドソーシングによる画像アノテーションの再考を提案する。
我々の仮説は、アノテータが有意なラベルを持つ複数ラベルの画像を部分的にアノテートするだけでは、アノテーションエラーが少なくなるというものである。
同じアノテーション予算で、有能なアノテーションを持つ画像で教師されるマルチラベル画像が、完全に注釈付けされた画像で教師されるモデルより優れていることを示す。
- 参考スコア(独自算出の注目度): 20.48996482670661
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Annotated images are required for both supervised model training and
evaluation in image classification. Manually annotating images is arduous and
expensive, especially for multi-labeled images. A recent trend for conducting
such laboursome annotation tasks is through crowdsourcing, where images are
annotated by volunteers or paid workers online (e.g., workers of Amazon
Mechanical Turk) from scratch. However, the quality of crowdsourcing image
annotations cannot be guaranteed, and incompleteness and incorrectness are two
major concerns for crowdsourcing annotations. To address such concerns, we have
a rethinking of crowdsourcing annotations: Our simple hypothesis is that if the
annotators only partially annotate multi-label images with salient labels they
are confident in, there will be fewer annotation errors and annotators will
spend less time on uncertain labels. As a pleasant surprise, with the same
annotation budget, we show a multi-label image classifier supervised by images
with salient annotations can outperform models supervised by fully annotated
images. Our method contributions are 2-fold: An active learning way is proposed
to acquire salient labels for multi-label images; and a novel Adaptive
Temperature Associated Model (ATAM) specifically using partial annotations is
proposed for multi-label image classification. We conduct experiments on
practical crowdsourcing data, the Open Street Map (OSM) dataset and benchmark
dataset COCO 2014. When compared with state-of-the-art classification methods
trained on fully annotated images, the proposed ATAM can achieve higher
accuracy. The proposed idea is promising for crowdsourcing data annotation. Our
code will be publicly available.
- Abstract(参考訳): 教師付きモデルトレーニングと画像分類の評価には注釈付き画像が必要である。
手動でアノテートする画像は、特にマルチラベル画像の場合、困難で高価である。
クラウドソーシングでは、オンラインのボランティアや有料労働者(例えばamazon mechanical turkの労働者)が画像をスクラッチから注釈付けする。
しかし、画像アノテーションのクラウドソーシングの品質は保証できず、不完全さと不正確さは、クラウドソーシングアノテーションの2つの大きな懸念事項である。
私たちの単純な仮説は、アノテータが自信のあるラベルを持つ複数のラベルイメージに部分的にアノテートするだけで、アノテーションエラーが少なくなり、アノテータが不確実なラベルに費やす時間が少なくなるというものです。
幸いなことに、同じアノテーション予算で、有能なアノテーションを持つ画像で教師されるマルチラベル画像分類器が、完全に注釈付けされた画像で教師されるモデルより優れていることを示す。
提案手法は,複数ラベル画像の高度ラベルを取得するためのアクティブラーニング手法を提案し,多ラベル画像分類のための部分的アノテーションを用いた新しい適応温度関連モデル (atam) を提案する。
我々は,実際のクラウドソーシングデータ,open street map(osm)データセット,benchmark dataset coco 2014の実験を行う。
完全注釈付き画像で訓練された最先端の分類法と比較すると,提案手法は精度が高い。
提案するアイデアは,データアノテーションのクラウドソーシングに有望である。
私たちのコードは公開されます。
関連論文リスト
- Capturing Perspectives of Crowdsourced Annotators in Subjective Learning Tasks [9.110872603799839]
監督された分類は、人間によって注釈付けされたデータセットに大きく依存する。
毒性分類などの主観的なタスクでは、これらのアノテーションはラッカー間での合意が低くなることが多い。
本研究では、主観的分類タスクのためのtextbfAnnotator Awares for Texts (AART) を提案する。
論文 参考訳(メタデータ) (2023-11-16T10:18:32Z) - Toward Real-Time Image Annotation Using Marginalized Coupled Dictionary
Learning [0.0]
限られた数の視覚的プロトタイプとそれに対応するセマンティクスを同時に学習するために,新しい統合辞書学習手法を提案する。
このアプローチはリアルタイムな画像アノテーションの手順につながる。
論文 参考訳(メタデータ) (2023-04-14T03:01:44Z) - Self-Guided Diffusion Models [53.825634944114285]
自己誘導拡散モデルのためのフレームワークを提案する。
本手法は,様々な画像粒度の誘導信号を提供する。
単ラベルおよび複数ラベルの画像データセットに対する実験により、自己ラベル付きガイダンスは誘導なしで拡散モデルより常に優れていることが示された。
論文 参考訳(メタデータ) (2022-10-12T17:57:58Z) - Dual-Perspective Semantic-Aware Representation Blending for Multi-Label
Image Recognition with Partial Labels [70.36722026729859]
本稿では,多粒度カテゴリ固有の意味表現を異なる画像にブレンドした,二重パースペクティブな意味認識表現ブレンディング(DSRB)を提案する。
提案したDSは、すべての比率ラベル設定において、最先端のアルゴリズムを一貫して上回っている。
論文 参考訳(メタデータ) (2022-05-26T00:33:44Z) - Mixed Supervision Learning for Whole Slide Image Classification [88.31842052998319]
超高解像度画像のための混合監視学習フレームワークを提案する。
パッチトレーニングの段階では、このフレームワークは、粗いイメージレベルのラベルを使用して、自己教師付き学習を洗練することができる。
画素レベルの偽陽性と偽陰性を抑制するための包括的な戦略が提案されている。
論文 参考訳(メタデータ) (2021-07-02T09:46:06Z) - Multi-Label Learning from Single Positive Labels [37.17676289125165]
与えられた画像に対して適用可能なラベルを全て予測することは、マルチラベル分類(multi-label classification)として知られている。
その結果,ラベルの確認が著しく少ないにもかかわらず,完全ラベル付き分類器の性能にアプローチできることが示唆された。
論文 参考訳(メタデータ) (2021-06-17T17:58:04Z) - Towards Good Practices for Efficiently Annotating Large-Scale Image
Classification Datasets [90.61266099147053]
多数の画像の分類ラベルを収集するための効率的なアノテーション戦略を検討する。
人間のラベリング作業を最小化するための修正とベストプラクティスを提案します。
ImageNet100の125kイメージサブセットのシミュレーション実験では、平均で0.35のアノテーションで80%のトップ-1の精度でアノテートできることが示されている。
論文 参考訳(メタデータ) (2021-04-26T16:29:32Z) - Re-labeling ImageNet: from Single to Multi-Labels, from Global to
Localized Labels [34.13899937264952]
ImageNetは間違いなく最も人気のある画像分類ベンチマークですが、ラベルノイズのかなりのレベルを持つものでもあります。
近年の研究では、シングルラベルベンチマークと仮定されているにもかかわらず、多くのサンプルが複数のクラスを含んでいることが示されている。
私たちは、単一ラベルアノテーションと効果的に複数のラベル画像の間のミスマッチは、ランダムな作物が適用されるトレーニングセットアップにおいて同様に問題であると主張しています。
論文 参考訳(メタデータ) (2021-01-13T11:55:58Z) - Grafit: Learning fine-grained image representations with coarse labels [114.17782143848315]
本稿では,学習ラベルの提供するものよりも細かな表現を学習する問題に対処する。
粗いラベルと下層の細粒度潜在空間を併用することにより、カテゴリレベルの検索手法の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2020-11-25T19:06:26Z) - One-bit Supervision for Image Classification [121.87598671087494]
1ビットの監視は、不完全なアノテーションから学ぶための新しい設定である。
負ラベル抑圧を既成の半教師付き学習アルゴリズムに組み込んだ多段階学習パラダイムを提案する。
論文 参考訳(メタデータ) (2020-09-14T03:06:23Z) - Context Aware Image Annotation in Active Learning [0.38073142980733]
画像メタデータを類似度指標として用いたコンテキスト認識画像フレームワーク(CAIAF)を提案する。
実験により,CAIAFのアノテーションコストを従来のフレームワークと比較して低減し,高い分類性能を維持した。
論文 参考訳(メタデータ) (2020-02-06T16:57:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。