論文の概要: Data Cleansing with Contrastive Learning for Vocal Note Event
Annotations
- arxiv url: http://arxiv.org/abs/2008.02069v3
- Date: Tue, 27 Apr 2021 10:19:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 18:13:06.458267
- Title: Data Cleansing with Contrastive Learning for Vocal Note Event
Annotations
- Title(参考訳): 音符イベントアノテーションのためのコントラスト学習によるデータクリーニング
- Authors: Gabriel Meseguer-Brocal, Rachel Bittner, Simon Durand and Brian Brost
- Abstract要約: 本稿では,時間変化のある構造化ラベルのための新しいデータクリーニングモデルを提案する。
本モデルでは, ラベルの局所的な変形を自動的に生成することにより, 対照的な学習方法を訓練する。
提案手法を用いて学習すると,転写モデルの精度が大幅に向上することが実証された。
- 参考スコア(独自算出の注目度): 1.859931123372708
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Data cleansing is a well studied strategy for cleaning erroneous labels in
datasets, which has not yet been widely adopted in Music Information Retrieval.
Previously proposed data cleansing models do not consider structured (e.g. time
varying) labels, such as those common to music data. We propose a novel data
cleansing model for time-varying, structured labels which exploits the local
structure of the labels, and demonstrate its usefulness for vocal note event
annotations in music. %Our model is trained in a contrastive learning manner by
automatically creating local deformations of likely correct labels. Our model
is trained in a contrastive learning manner by automatically contrasting likely
correct labels pairs against local deformations of them. We demonstrate that
the accuracy of a transcription model improves greatly when trained using our
proposed strategy compared with the accuracy when trained using the original
dataset. Additionally we use our model to estimate the annotation error rates
in the DALI dataset, and highlight other potential uses for this type of model.
- Abstract(参考訳): データクリーニングは、データセット内の誤ったラベルを消去するためのよく研究された戦略であり、音楽情報検索にはまだ広く採用されていない。
従来提案されていたデータクリーニングモデルは、音楽データに共通するような構造化されたラベル(例えば、時間変化)を考慮していない。
本稿では,ラベルの局所構造を活かした,時間変化のための新しいデータクリーニングモデルを提案し,音楽における音符イベントアノテーションの有用性を示す。
%のモデルでは,適切なラベルの局所的変形を自動生成することで,対照的な学習方法で学習する。
本モデルでは, 確率的ラベル対を局所的な変形と自動的に対比することにより, 対照的な学習方法を訓練する。
提案手法を用いて学習した場合の書き起こしモデルの精度が,元のデータセットでトレーニングした場合の精度と比較して大幅に向上することを示す。
さらに,このモデルを用いてdaliデータセットのアノテーションエラー率を推定し,このモデルに対する他の潜在的な用途を強調する。
関連論文リスト
- Soft Curriculum for Learning Conditional GANs with Noisy-Labeled and
Uncurated Unlabeled Data [70.25049762295193]
本稿では,トレーニング中にノイズラベル付きおよび未処理データを受け入れる条件付き画像生成フレームワークを提案する。
本稿では,ラベルのないデータに新たなラベルを割り当てながら,逆行訓練にインスタンスワイドを割り当てるソフトカリキュラム学習を提案する。
実験により,本手法は,定量および定性性能の両面において,既存の半教師付き・ラベル付きロバストな手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-17T08:31:59Z) - Automated Labeling of German Chest X-Ray Radiology Reports using Deep
Learning [50.591267188664666]
本稿では,ルールベースのドイツ語CheXpertモデルによってラベル付けされたレポートに基づいて,ディープラーニングに基づくCheXpertラベル予測モデルを提案する。
その結果,3つのタスクすべてにおいて,ルールベースモデルを大幅に上回ったアプローチの有効性が示された。
論文 参考訳(メタデータ) (2023-06-09T16:08:35Z) - Learning with Noisy Labels by Adaptive Gradient-Based Outlier Removal [4.71154003227418]
本稿では,Adaptive GRAdient-based outlier removal を用いて,雑音のあるラベルで学習する新しい手法 AGRAを提案する。
本手法は,サンプルの集合勾配と個々のサンプル勾配を比較して,対応するサンプルがモデルに役立つかどうかを動的に決定する。
いくつかのデータセットに対する広範囲な評価はAGRAの有効性を示している。
論文 参考訳(メタデータ) (2023-06-07T15:10:01Z) - Learning to Detect Noisy Labels Using Model-Based Features [16.681748918518075]
Select-Enhanced Noisy label Training (SENT)を提案する。
SENTは、データ駆動の柔軟性を保ちながら、メタ学習に依存しない。
自己学習とラベルの破損の設定の下で、強力なベースラインよりもパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2022-12-28T10:12:13Z) - Learning with Noisy Labels by Targeted Relabeling [52.0329205268734]
クラウドソーシングプラットフォームは、ディープニューラルネットワークをトレーニングするためのデータセット収集によく使用される。
本稿では,少数のアノテーションを予約して,高い確率でラベル付け可能なエラーを明示的に緩和する手法を提案する。
論文 参考訳(メタデータ) (2021-10-15T20:37:29Z) - Active label cleaning: Improving dataset quality under resource
constraints [13.716577886649018]
ラベルノイズとして知られるデータアノテーションの欠陥は、機械学習モデルのトレーニングに有害である。
この研究は、再アノテーションのためのサンプルを優先順位付けするためのデータ駆動アプローチを提唱する。
評価されたラベルの正しさと各サンプルのラベル付け難易度に応じて格付けを行い,再現性を評価するためのシミュレーションフレームワークを導入する。
論文 参考訳(メタデータ) (2021-09-01T19:03:57Z) - Instance Correction for Learning with Open-set Noisy Labels [145.06552420999986]
オープンセットノイズラベルの処理にはサンプル選択方式を用いる。
廃棄されたデータは間違ったラベルで書かれており、トレーニングには参加していない。
廃棄されたデータのインスタンスを変更して、廃棄されたデータの予測をラベルに一致させる。
論文 参考訳(メタデータ) (2021-06-01T13:05:55Z) - Self-Tuning for Data-Efficient Deep Learning [75.34320911480008]
セルフチューニングは、データ効率のよいディープラーニングを可能にする新しいアプローチである。
ラベル付きおよびラベルなしデータの探索と事前訓練されたモデルの転送を統一する。
SSLとTLの5つのタスクをシャープなマージンで上回ります。
論文 参考訳(メタデータ) (2021-02-25T14:56:19Z) - Finding Friends and Flipping Frenemies: Automatic Paraphrase Dataset
Augmentation Using Graph Theory [21.06607915149245]
提案する文ペアラベルからパラフレーズグラフを構築し,推移性特性を用いて原文ペアから直接ラベルを推測することにより,拡張データセットを作成する。
提案手法は,事前学習されたBERTモデルから始まるこれらのデータセットを用いて学習したパラフレーズモデルを用いて評価し,自動強化されたトレーニングセットによりより正確なモデルが得られることを示す。
論文 参考訳(メタデータ) (2020-11-03T17:18:03Z) - Learning with Out-of-Distribution Data for Audio Classification [60.48251022280506]
我々は,OODインスタンスを破棄するよりも,特定のOODインスタンスを検出・復号化することで,学習に肯定的な影響を及ぼすことを示す。
提案手法は,畳み込みニューラルネットワークの性能を著しく向上させる。
論文 参考訳(メタデータ) (2020-02-11T21:08:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。