論文の概要: Dynamic curriculum learning via data parameters for noise robust keyword
spotting
- arxiv url: http://arxiv.org/abs/2102.09666v1
- Date: Thu, 18 Feb 2021 23:26:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-22 13:32:27.246356
- Title: Dynamic curriculum learning via data parameters for noise robust keyword
spotting
- Title(参考訳): ノイズロバストキーワードスポッティングのためのデータパラメータを用いた動的カリキュラム学習
- Authors: Takuya Higuchi, Shreyas Saxena, Mehrez Souden, Tien Dung Tran, Masood
Delfarah and Chandra Dhir
- Abstract要約: ノイズロバストキーワードスポッティングのためのデータパラメータを用いた動的カリキュラム学習を提案する。
提案手法は,勾配降下最適化において,クラスやインスタンスの難易度を自動的に学習する。
キーワードスポッティングタスクにおける提案手法の有効性を評価した。
- 参考スコア(独自算出の注目度): 12.851997292167354
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose dynamic curriculum learning via data parameters for noise robust
keyword spotting. Data parameter learning has recently been introduced for
image processing, where weight parameters, so-called data parameters, for
target classes and instances are introduced and optimized along with model
parameters. The data parameters scale logits and control importance over
classes and instances during training, which enables automatic curriculum
learning without additional annotations for training data. Similarly, in this
paper, we propose using this curriculum learning approach for acoustic
modeling, and train an acoustic model on clean and noisy utterances with the
data parameters. The proposed approach automatically learns the difficulty of
the classes and instances, e.g. due to low speech to noise ratio (SNR), in the
gradient descent optimization and performs curriculum learning. This curriculum
learning leads to overall improvement of the accuracy of the acoustic model. We
evaluate the effectiveness of the proposed approach on a keyword spotting task.
Experimental results show 7.7% relative reduction in false reject ratio with
the data parameters compared to a baseline model which is simply trained on the
multiconditioned dataset.
- Abstract(参考訳): ノイズロバストキーワードスポッティングのためのデータパラメータを用いた動的カリキュラム学習を提案する。
データパラメータ学習は最近画像処理に導入され、対象クラスやインスタンスの重みパラメータ、いわゆるデータパラメータがモデルパラメータとともに導入され、最適化されている。
データパラメータは、トレーニング中のクラスやインスタンスに対するロギットとコントロールの重要性をスケールし、トレーニングデータの追加アノテーションなしで自動カリキュラム学習を可能にします。
同様に,本稿では,このカリキュラム学習手法を音響モデルに適用し,データパラメータを用いて,クリーンでノイズの多い発話の音響モデルを学習する。
提案手法は,クラスやインスタンスの難易度を自動的に学習する。
低発話と雑音比(SNR)が原因で、勾配降下最適化において、カリキュラム学習を行う。
このカリキュラム学習は、音響モデルの精度の全体的な改善につながります。
キーワードスポッティングタスクにおける提案手法の有効性を評価した。
実験結果は、マルチコンディショニングデータセットで訓練されたベースラインモデルと比較して、データパラメータと偽の拒絶比の7.7%の相対的な減少を示した。
関連論文リスト
- Retrieval Instead of Fine-tuning: A Retrieval-based Parameter Ensemble for Zero-shot Learning [22.748835458594744]
Retrievalをベースとする。
Ensemble (RPE) - ベクトル化されたデータベースを作成する新しい方法。
Low-Rank Adaptations (LoRA)
RPEは、広範囲なトレーニングの必要性を最小限に抑え、ラベル付きデータの要求を排除し、特にゼロショット学習に有効である。
RPEは、生のデータにアクセスせずにモデルパラメータを変更するため、ヘルスケアのようなプライバシに敏感なドメインに適している。
論文 参考訳(メタデータ) (2024-10-13T16:28:38Z) - From Data Deluge to Data Curation: A Filtering-WoRA Paradigm for Efficient Text-based Person Search [19.070305201045954]
テキストベースの人物検索では、プライバシ保護と手動アノテーションの困難なタスクに対する懸念に対処するため、データ生成が主流となっている。
構築されたデータセット内のデータのサブセットのみが決定的な役割を果たすことを観察する。
我々は、この重要なデータサブセットを識別するためのフィルタリングアルゴリズムと、光微細チューニングのためのWoRA学習戦略を含む新しいフィルタリング-WoRAパラダイムを導入する。
論文 参考訳(メタデータ) (2024-04-16T05:29:14Z) - Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Analyze the Robustness of Classifiers under Label Noise [5.708964539699851]
教師付き学習におけるラベルノイズは、誤ったラベルまたは不正確なラベルによって特徴づけられ、モデル性能を著しく損なう。
本研究は, ラベルノイズが実用的応用に与える影響について, ますます関連する問題に焦点をあてる。
論文 参考訳(メタデータ) (2023-12-12T13:51:25Z) - Zero-shot Retrieval: Augmenting Pre-trained Models with Search Engines [83.65380507372483]
大規模で事前訓練されたモデルは、問題を解決するのに必要なタスク固有のデータの量を劇的に削減するが、多くの場合、ドメイン固有のニュアンスを箱から取り出すのに失敗する。
本稿では,NLPとマルチモーダル学習の最近の進歩を活用して,検索エンジン検索による事前学習モデルを強化する方法について述べる。
論文 参考訳(メタデータ) (2023-11-29T05:33:28Z) - Fine tuning Pre trained Models for Robustness Under Noisy Labels [34.68018860186995]
トレーニングデータセットにノイズの多いラベルが存在することは、機械学習モデルのパフォーマンスに大きな影響を及ぼす可能性がある。
我々は、事前学習されたモデルの事前知識を頑健かつ効率的に伝達するTURNと呼ばれる新しいアルゴリズムを導入する。
論文 参考訳(メタデータ) (2023-10-24T20:28:59Z) - Uncertainty-aware Parameter-Efficient Self-training for Semi-supervised
Language Understanding [38.11411155621616]
我々は,主に半教師あり学習の手法として,自己学習について研究している。
我々は,新しい不確かさを意識した自己学習フレームワークであるUPETを紹介する。
UPETは性能と効率の面で大幅に向上したことを示す。
論文 参考訳(メタデータ) (2023-10-19T02:18:29Z) - Parameter-Efficient Sparsity for Large Language Models Fine-Tuning [63.321205487234074]
私たちはaを提案します。
Sparse- efficient Sparse Training (PST) は、スパース・アウェア・トレーニング中にトレーニング可能なパラメータの数を減少させる手法である。
多様なネットワーク(BERT、RoBERTa、GPT-2)を用いた実験では、PSTは従来のスパーシリティ法よりも同等以上の性能を示した。
論文 参考訳(メタデータ) (2022-05-23T02:43:45Z) - Few-Shot Parameter-Efficient Fine-Tuning is Better and Cheaper than
In-Context Learning [81.3514358542452]
ICL (Few-shot in-context Learning) は、予測を行うたびにトレーニング例を全て処理するので、かなりの計算、メモリ、ストレージコストを発生させる。
パラメータ効率の良い微調整は、モデルの新たなタスクの実行を可能にするために、小さなパラメータセットをトレーニングする、代替パラダイムを提供する。
本稿では,少数ショットICLとパラメータ効率の微調整を厳密に比較し,後者が計算コストを劇的に削減できることを示す。
論文 参考訳(メタデータ) (2022-05-11T17:10:41Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - Online Coreset Selection for Rehearsal-based Continual Learning [65.85595842458882]
継続的な学習では、後に再生されるトレーニング例(コアセット)のサブセットを格納し、破滅的な忘れを軽減します。
提案するオンラインコアセット選択(OCS, Online Coreset Selection)は, 各イテレーションにおいて最も代表的で情報性の高いコアセットを選択するシンプルで効果的な方法である。
提案手法は,過去のタスクに対して高親和性サンプルを選択しながら,目標データセットへのモデル適応を最大化し,破滅的忘れを直接的に抑制する。
論文 参考訳(メタデータ) (2021-06-02T11:39:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。