論文の概要: Label Smarter, Not Harder: CleverLabel for Faster Annotation of
Ambiguous Image Classification with Higher Quality
- arxiv url: http://arxiv.org/abs/2305.12811v1
- Date: Mon, 22 May 2023 08:12:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 17:29:47.151984
- Title: Label Smarter, Not Harder: CleverLabel for Faster Annotation of
Ambiguous Image Classification with Higher Quality
- Title(参考訳): Label Smart, not Harder: CleverLabel for Faster Annotation of Ambiguous Image Classification with Higher Quality
- Authors: Lars Schmarje, Vasco Grossmann, Tim Michels, Jakob Nazarenus, Monty
Santarossa, Claudius Zelenka, Reinhard Koch
- Abstract要約: 私たちは1つのオプションとして提案誘導アノテーションを使用し、アノテーション間の一貫性を高めます。
本稿では,検証された提案誘導アノテーションと修復されたLABLを用いて,コスト効率の高いLabElingのためのCleverLabelを提案する。
クレバーラベルはラベリングコストを最大30.0%削減し、クルバック・リーバーの分岐率を最大29.8%に向上させる。
- 参考スコア(独自算出の注目度): 0.6927055673104933
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-quality data is crucial for the success of machine learning, but
labeling large datasets is often a time-consuming and costly process. While
semi-supervised learning can help mitigate the need for labeled data, label
quality remains an open issue due to ambiguity and disagreement among
annotators. Thus, we use proposal-guided annotations as one option which leads
to more consistency between annotators. However, proposing a label increases
the probability of the annotators deciding in favor of this specific label.
This introduces a bias which we can simulate and remove. We propose a new
method CleverLabel for Cost-effective LabEling using Validated proposal-guidEd
annotations and Repaired LABELs. CleverLabel can reduce labeling costs by up to
30.0%, while achieving a relative improvement in Kullback-Leibler divergence of
up to 29.8% compared to the previous state-of-the-art on a multi-domain
real-world image classification benchmark. CleverLabel offers a novel solution
to the challenge of efficiently labeling large datasets while also improving
the label quality.
- Abstract(参考訳): 高品質なデータは機械学習の成功に不可欠であるが、大規模なデータセットのラベル付けは、しばしば時間とコストのかかるプロセスである。
半教師付き学習はラベル付きデータの必要性を軽減するのに役立つが、ラベルの品質はあいまいさとアノテーション間の不一致のため、まだ未解決の問題である。
したがって、提案誘導アノテーションを一つのオプションとして使用し、アノテーション間の一貫性を高めます。
しかし、ラベルの提案は、この特定のラベルを選択する注釈者の確率を増加させる。
これは、シミュレーションと削除が可能なバイアスを導入します。
提案手法の検証とLABELの修正による費用対効果評価のためのCleverLabelを提案する。
cleverlabelはラベリングコストを最大30.0%削減できる一方で、マルチドメイン実世界画像分類ベンチマークの以前の最先端技術と比較して、kullback-leiblerの分岐率を最大29.8%向上させることができる。
CleverLabelは、大規模なデータセットを効率的にラベル付けし、ラベルの品質を向上させるという課題に対して、新たなソリューションを提供する。
関連論文リスト
- You can't handle the (dirty) truth: Data-centric insights improve pseudo-labeling [60.27812493442062]
擬似ラベル法を改善するためにラベル付きデータ品質を調査することが重要であることを示す。
具体的には、擬似ラベルの拡張のために、DIPSと呼ばれる新しいデータキャラクタリゼーションと選択フレームワークを導入する。
本研究では,多種多様な実世界のデータセットを対象とした擬似ラベル手法に対するDIPSの適用性と影響を実証する。
論文 参考訳(メタデータ) (2024-06-19T17:58:40Z) - Don't Waste a Single Annotation: Improving Single-Label Classifiers
Through Soft Labels [7.396461226948109]
目的とする単一ラベル分類タスクに対する共通データアノテーションとトレーニング手法の限界に対処する。
以上の結果から,信頼性,二次ラベル,不一致などの付加的なアノテータ情報を用いて,ソフトラベルを効果的に生成できることが示唆された。
論文 参考訳(メタデータ) (2023-11-09T10:47:39Z) - Towards Imbalanced Large Scale Multi-label Classification with Partially
Annotated Labels [8.977819892091]
マルチラベル分類は、複数のクラスにインスタンスを関連付けることができる日常生活において、広く発生する問題である。
本研究では,ラベルの不均衡の問題に対処し,部分ラベルを用いたニューラルネットワークのトレーニング方法について検討する。
論文 参考訳(メタデータ) (2023-07-31T21:50:48Z) - Robust Assignment of Labels for Active Learning with Sparse and Noisy
Annotations [0.17188280334580192]
監視された分類アルゴリズムは、世界中の多くの現実の問題を解決するために使用される。
残念なことに、多くのタスクに対して良質なアノテーションを取得することは、実際に行うには不可能か、あるいはコストがかかりすぎます。
サンプル空間のラベルのない部分を利用する2つの新しいアノテーション統一アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-25T19:40:41Z) - Imprecise Label Learning: A Unified Framework for Learning with Various Imprecise Label Configurations [91.67511167969934]
imprecise label learning (ILL)は、様々な不正確なラベル構成で学習を統合するためのフレームワークである。
我々は、ILLが部分ラベル学習、半教師付き学習、雑音ラベル学習にシームレスに適応できることを実証した。
論文 参考訳(メタデータ) (2023-05-22T04:50:28Z) - ScarceNet: Animal Pose Estimation with Scarce Annotations [74.48263583706712]
ScarceNetは、ラベルのない画像のための人工ラベルを生成するための擬似ラベルベースのアプローチである。
我々は、既存の半教師付きアプローチを大きなマージンで上回る、挑戦的なAP-10Kデータセットに対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-03-27T09:15:53Z) - Learning from Stochastic Labels [8.178975818137937]
マルチクラスインスタンスのアノテーションは、機械学習の分野で重要なタスクである。
本稿では,これらのラベルから学習するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-02-01T08:04:27Z) - An Effective Approach for Multi-label Classification with Missing Labels [8.470008570115146]
分類ネットワークにさらなる複雑さをもたらすことなく、アノテーションのコストを削減するための擬似ラベルベースのアプローチを提案する。
新たな損失関数を設計することにより、各インスタンスが少なくとも1つの正のラベルを含む必要があるという要求を緩和することができる。
提案手法は,正のラベルと負のラベルの不均衡を扱える一方で,既存の欠落ラベル学習手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-24T23:13:57Z) - Acknowledging the Unknown for Multi-label Learning with Single Positive
Labels [65.5889334964149]
伝統的に、全ての無注釈ラベルは、単一正のマルチラベル学習(SPML)において負のラベルとして仮定される。
本研究では, 予測確率のエントロピーを最大化するエントロピー最大化(EM)損失を提案する。
非通知ラベルの正負ラベル不均衡を考慮し、非対称耐性戦略とより精密な監視を行うセルフペースト手順を備えた非対称擬似ラベル(APL)を提案する。
論文 参考訳(メタデータ) (2022-03-30T11:43:59Z) - Debiased Pseudo Labeling in Self-Training [77.83549261035277]
ディープニューラルネットワークは、大規模ラベル付きデータセットの助けを借りて、幅広いタスクで顕著なパフォーマンスを達成する。
ラベル付きデータの要求を軽減するため、ラベル付けされていないデータに擬似ラベルを付けることにより、学術と産業の両方で自己学習が広く使われている。
疑似ラベルの生成と利用を2つの独立した頭文字で分離するデバイアスドを提案する。
論文 参考訳(メタデータ) (2022-02-15T02:14:33Z) - A Study on the Autoregressive and non-Autoregressive Multi-label
Learning [77.11075863067131]
本稿では,ラベルとラベルの依存関係を共同で抽出する自己アテンションに基づく変分エンコーダモデルを提案する。
したがって、ラベルラベルとラベル機能の両方の依存関係を保ちながら、すべてのラベルを並列に予測することができる。
論文 参考訳(メタデータ) (2020-12-03T05:41:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。