論文の概要: Beyond Hard Labels: Investigating data label distributions
- arxiv url: http://arxiv.org/abs/2207.06224v1
- Date: Wed, 13 Jul 2022 14:25:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-14 12:20:08.936572
- Title: Beyond Hard Labels: Investigating data label distributions
- Title(参考訳): ハードラベルを超える:データラベルディストリビューションの調査
- Authors: Vasco Grossmann, Lars Schmarje, Reinhard Koch
- Abstract要約: 学習の相違を、合成データセットと実世界のデータセットのハードラベルとソフトラベルと比較する。
ソフトラベルの適用により性能が向上し、内部特徴空間のより規則的な構造が得られる。
- 参考スコア(独自算出の注目度): 0.9668407688201357
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-quality data is a key aspect of modern machine learning. However, labels
generated by humans suffer from issues like label noise and class ambiguities.
We raise the question of whether hard labels are sufficient to represent the
underlying ground truth distribution in the presence of these inherent
imprecision. Therefore, we compare the disparity of learning with hard and soft
labels quantitatively and qualitatively for a synthetic and a real-world
dataset. We show that the application of soft labels leads to improved
performance and yields a more regular structure of the internal feature space.
- Abstract(参考訳): 高品質なデータは、現代の機械学習の重要な側面である。
しかし、人間が生成するラベルは、ラベルノイズやクラス曖昧さといった問題に苦しんでいる。
我々は,ハードラベルが根底にある真理分布を表現するのに十分かどうかという疑問を提起する。
そこで本研究では,学習の相違を,合成および実世界のデータセットに対して定量的,質的に比較する。
ソフトラベルの適用により性能が向上し,内部特徴空間のより規則的な構造が得られることを示す。
関連論文リスト
- Imprecise Label Learning: A Unified Framework for Learning with Various
Imprecise Label Configurations [95.12263518034939]
imprecise label learning (ILL)は、様々な不正確なラベル構成で学習を統合するためのフレームワークである。
我々は、ILLが部分ラベル学習、半教師付き学習、雑音ラベル学習にシームレスに適応できることを実証した。
論文 参考訳(メタデータ) (2023-05-22T04:50:28Z) - Learning From Biased Soft Labels [48.84637168570285]
ある研究では、知識の蒸留とラベルの平滑化がソフトラベルからの学習として統合できることが示されている。
本稿では, バイアス付きソフトラベルが依然として有効かどうかを考察する。
論文 参考訳(メタデータ) (2023-02-16T08:57:48Z) - Multi-label Classification with High-rank and High-order Label
Correlations [62.39748565407201]
従来の手法では, ラベル行列を低ランク行列係数化した潜在ラベル空間に変換することにより, 高階ラベル相関を捕えることができた。
本稿では,高次ラベル相関を明示的に記述する簡易かつ効果的な手法を提案し,同時にラベル行列の高次値を維持する。
12個のベンチマークデータセットの比較研究により,マルチラベル分類における提案アルゴリズムの有効性が検証された。
論文 参考訳(メタデータ) (2022-07-09T05:15:31Z) - How many labelers do you have? A closer look at gold-standard labels [11.43020642249583]
非集約的なラベル情報へのアクセスによって、トレーニングが適切に校正されたモデルを簡単にできるか、あるいは、場合によっては、実現可能であるかを示します。
ストーリー全体は微妙で、集約されたラベル情報とフルラベル情報のコントラストは、問題の特定の部分に依存します。
論文 参考訳(メタデータ) (2022-06-24T02:33:50Z) - Debiased Pseudo Labeling in Self-Training [77.83549261035277]
ディープニューラルネットワークは、大規模ラベル付きデータセットの助けを借りて、幅広いタスクで顕著なパフォーマンスを達成する。
ラベル付きデータの要求を軽減するため、ラベル付けされていないデータに擬似ラベルを付けることにより、学術と産業の両方で自己学習が広く使われている。
疑似ラベルの生成と利用を2つの独立した頭文字で分離するデバイアスドを提案する。
論文 参考訳(メタデータ) (2022-02-15T02:14:33Z) - An Empirical Investigation of Learning from Biased Toxicity Labels [15.822714574671412]
我々は,人間の注釈付きラベルの小さなデータセットと,合成されたラベルの大きいがノイズの多いデータセットを,異なるトレーニング戦略が活用できるかを検討する。
これらの手法の精度と公平性、および両者のトレードオフを評価する。
論文 参考訳(メタデータ) (2021-10-04T17:19:57Z) - Harmless label noise and informative soft-labels in supervised
classification [1.6752182911522517]
トレーニング例の手動ラベリングは、教師付き学習の一般的なプラクティスです。
ラベル処理が非自明な難易度である場合、供給されたラベルは接地ラベルと等しくなく、ラベルノイズをトレーニングデータセットに導入する。
特に、分類困難がラベルエラーの唯一の原因である場合、複数のノイズラベルセットは、分類規則の推定により多くの情報を提供することができる。
論文 参考訳(メタデータ) (2021-04-07T02:56:11Z) - Exploiting Context for Robustness to Label Noise in Active Learning [47.341705184013804]
本稿では,どのラベルが間違っているのかをシステムがどのように識別するか,ラベルノイズの負の影響を最小限に抑えるために,マルチクラスアクティブラーニングシステムをどのように適用できるか,といった課題に対処する。
我々は、これらの関係を符号化し、ノイズラベルが利用できる場合にグラフ上の新しい信念を得るために、ラベルなしデータのグラフィカルな表現を構築した。
これはシーン分類、アクティビティ分類、文書分類の3つの異なる応用で実証されている。
論文 参考訳(メタデータ) (2020-10-18T18:59:44Z) - Does label smoothing mitigate label noise? [57.76529645344897]
ラベルの平滑化はラベルノイズ下での損失補正と競合することを示す。
ノイズの多いデータからモデルを蒸留する場合,教師のラベルの平滑化は有益であることを示す。
論文 参考訳(メタデータ) (2020-03-05T18:43:17Z) - Limitations of weak labels for embedding and tagging [0.0]
環境音響分析における多くのデータセットやアプローチは、弱いラベル付きデータを用いており、強いラベルで全てのデータサンプルに注釈をつけるのは高すぎるため、弱いラベルが用いられる。
本稿では,弱いラベルを含む教師付き学習問題を定式化し,他の課題とは対照的に,強いラベルと弱いラベルの違いに着目したデータセットを作成する。
論文 参考訳(メタデータ) (2020-02-05T08:54:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。