論文の概要: Limitations of weak labels for embedding and tagging
- arxiv url: http://arxiv.org/abs/2002.01687v4
- Date: Mon, 7 Dec 2020 13:13:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 21:10:43.596425
- Title: Limitations of weak labels for embedding and tagging
- Title(参考訳): 埋め込み・タグ付けにおける弱ラベルの限界
- Authors: Nicolas Turpault (MULTISPEECH), Romain Serizel (MULTISPEECH), Emmanuel
Vincent (MULTISPEECH)
- Abstract要約: 環境音響分析における多くのデータセットやアプローチは、弱いラベル付きデータを用いており、強いラベルで全てのデータサンプルに注釈をつけるのは高すぎるため、弱いラベルが用いられる。
本稿では,弱いラベルを含む教師付き学習問題を定式化し,他の課題とは対照的に,強いラベルと弱いラベルの違いに着目したデータセットを作成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many datasets and approaches in ambient sound analysis use weakly labeled
data.Weak labels are employed because annotating every data sample with a
strong label is too expensive.Yet, their impact on the performance in
comparison to strong labels remains unclear.Indeed, weak labels must often be
dealt with at the same time as other challenges, namely multiple labels per
sample, unbalanced classes and/or overlapping events.In this paper, we
formulate a supervised learning problem which involves weak labels.We create a
dataset that focuses on the difference between strong and weak labels as
opposed to other challenges. We investigate the impact of weak labels when
training an embedding or an end-to-end classifier.Different experimental
scenarios are discussed to provide insights into which applications are most
sensitive to weakly labeled data.
- Abstract(参考訳): Many datasets and approaches in ambient sound analysis use weakly labeled data.Weak labels are employed because annotating every data sample with a strong label is too expensive.Yet, their impact on the performance in comparison to strong labels remains unclear.Indeed, weak labels must often be dealt with at the same time as other challenges, namely multiple labels per sample, unbalanced classes and/or overlapping events.In this paper, we formulate a supervised learning problem which involves weak labels.We create a dataset that focuses on the difference between strong and weak labels as opposed to other challenges.
本稿では,組込みやエンドツーエンド分類器のトレーニングにおける弱ラベルの影響について検討し,弱ラベルデータに対して最も敏感なアプリケーションについて考察する。
関連論文リスト
- You can't handle the (dirty) truth: Data-centric insights improve pseudo-labeling [60.27812493442062]
擬似ラベル法を改善するためにラベル付きデータ品質を調査することが重要であることを示す。
具体的には、擬似ラベルの拡張のために、DIPSと呼ばれる新しいデータキャラクタリゼーションと選択フレームワークを導入する。
本研究では,多種多様な実世界のデータセットを対象とした擬似ラベル手法に対するDIPSの適用性と影響を実証する。
論文 参考訳(メタデータ) (2024-06-19T17:58:40Z) - Don't Waste a Single Annotation: Improving Single-Label Classifiers
Through Soft Labels [7.396461226948109]
目的とする単一ラベル分類タスクに対する共通データアノテーションとトレーニング手法の限界に対処する。
以上の結果から,信頼性,二次ラベル,不一致などの付加的なアノテータ情報を用いて,ソフトラベルを効果的に生成できることが示唆された。
論文 参考訳(メタデータ) (2023-11-09T10:47:39Z) - Soft Curriculum for Learning Conditional GANs with Noisy-Labeled and
Uncurated Unlabeled Data [70.25049762295193]
本稿では,トレーニング中にノイズラベル付きおよび未処理データを受け入れる条件付き画像生成フレームワークを提案する。
本稿では,ラベルのないデータに新たなラベルを割り当てながら,逆行訓練にインスタンスワイドを割り当てるソフトカリキュラム学習を提案する。
実験により,本手法は,定量および定性性能の両面において,既存の半教師付き・ラベル付きロバストな手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-17T08:31:59Z) - Imprecise Label Learning: A Unified Framework for Learning with Various Imprecise Label Configurations [91.67511167969934]
imprecise label learning (ILL)は、様々な不正確なラベル構成で学習を統合するためのフレームワークである。
我々は、ILLが部分ラベル学習、半教師付き学習、雑音ラベル学習にシームレスに適応できることを実証した。
論文 参考訳(メタデータ) (2023-05-22T04:50:28Z) - An Effective Approach for Multi-label Classification with Missing Labels [8.470008570115146]
分類ネットワークにさらなる複雑さをもたらすことなく、アノテーションのコストを削減するための擬似ラベルベースのアプローチを提案する。
新たな損失関数を設計することにより、各インスタンスが少なくとも1つの正のラベルを含む必要があるという要求を緩和することができる。
提案手法は,正のラベルと負のラベルの不均衡を扱える一方で,既存の欠落ラベル学習手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-24T23:13:57Z) - Beyond Hard Labels: Investigating data label distributions [0.9668407688201357]
学習の相違を、合成データセットと実世界のデータセットのハードラベルとソフトラベルと比較する。
ソフトラベルの適用により性能が向上し、内部特徴空間のより規則的な構造が得られる。
論文 参考訳(メタデータ) (2022-07-13T14:25:30Z) - Label Noise-Resistant Mean Teaching for Weakly Supervised Fake News
Detection [93.6222609806278]
本稿では,弱い教師付き偽ニュース検出のためのラベル雑音耐性平均教育手法 (LNMT) を提案する。
LNMTは、未ラベルのニュースとユーザのフィードバックコメントを活用して、トレーニングデータの量を増やす。
LNMTはラベル伝搬とラベル信頼性推定を備えた平均教師フレームワークを確立する。
論文 参考訳(メタデータ) (2022-06-10T16:01:58Z) - Data Consistency for Weakly Supervised Learning [15.365232702938677]
機械学習モデルのトレーニングには、大量の人間が注釈付けしたデータを使用する。
本稿では、雑音ラベル、すなわち弱い信号を処理する新しい弱監督アルゴリズムを提案する。
本研究では,テキストと画像の分類作業において,最先端の弱い監督手法を著しく上回っていることを示す。
論文 参考訳(メタデータ) (2022-02-08T16:48:19Z) - Disentangling Sampling and Labeling Bias for Learning in Large-Output
Spaces [64.23172847182109]
異なる負のサンプリングスキームが支配的ラベルと稀なラベルで暗黙的にトレードオフパフォーマンスを示す。
すべてのラベルのサブセットで作業することで生じるサンプリングバイアスと、ラベルの不均衡に起因するデータ固有のラベルバイアスの両方に明示的に対処する統一された手段を提供する。
論文 参考訳(メタデータ) (2021-05-12T15:40:13Z) - Harmless label noise and informative soft-labels in supervised
classification [1.6752182911522517]
トレーニング例の手動ラベリングは、教師付き学習の一般的なプラクティスです。
ラベル処理が非自明な難易度である場合、供給されたラベルは接地ラベルと等しくなく、ラベルノイズをトレーニングデータセットに導入する。
特に、分類困難がラベルエラーの唯一の原因である場合、複数のノイズラベルセットは、分類規則の推定により多くの情報を提供することができる。
論文 参考訳(メタデータ) (2021-04-07T02:56:11Z) - A Study on the Autoregressive and non-Autoregressive Multi-label
Learning [77.11075863067131]
本稿では,ラベルとラベルの依存関係を共同で抽出する自己アテンションに基づく変分エンコーダモデルを提案する。
したがって、ラベルラベルとラベル機能の両方の依存関係を保ちながら、すべてのラベルを並列に予測することができる。
論文 参考訳(メタデータ) (2020-12-03T05:41:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。