論文の概要: Towards Better Meta-Initialization with Task Augmentation for
Kindergarten-aged Speech Recognition
- arxiv url: http://arxiv.org/abs/2202.12326v1
- Date: Thu, 24 Feb 2022 19:20:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-28 14:35:23.541842
- Title: Towards Better Meta-Initialization with Task Augmentation for
Kindergarten-aged Speech Recognition
- Title(参考訳): 幼児期音声認識におけるタスク拡張によるメタ初期化の促進
- Authors: Yunzheng Zhu, Ruchao Fan, Abeer Alwan
- Abstract要約: 自動音声認識(ASR)におけるモデル非依存メタラーニング(MAML)の有効性を検証する。
周波数ワープ手法を用いて新しい年齢をシミュレートしてタスクレベル向上手法を提案する。
提案手法は,ベースラインシステムよりも51%向上した相対単語誤り率(WER)を実現する。
- 参考スコア(独自算出の注目度): 17.987535370138172
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Children's automatic speech recognition (ASR) is always difficult due to, in
part, the data scarcity problem, especially for kindergarten-aged kids. When
data are scarce, the model might overfit to the training data, and hence good
starting points for training are essential. Recently, meta-learning was
proposed to learn model initialization (MI) for ASR tasks of different
languages. This method leads to good performance when the model is adapted to
an unseen language. However, MI is vulnerable to overfitting on training tasks
(learner overfitting). It is also unknown whether MI generalizes to other
low-resource tasks. In this paper, we validate the effectiveness of MI in
children's ASR and attempt to alleviate the problem of learner overfitting. To
achieve model-agnostic meta-learning (MAML), we regard children's speech at
each age as a different task. In terms of learner overfitting, we propose a
task-level augmentation method by simulating new ages using frequency warping
techniques. Detailed experiments are conducted to show the impact of task
augmentation on each age for kindergarten-aged speech. As a result, our
approach achieves a relative word error rate (WER) improvement of 51% over the
baseline system with no augmentation or initialization.
- Abstract(参考訳): 児童の自動音声認識(asr)は,特に幼稚園児におけるデータ不足の問題から,常に困難である。
データが不足している場合、モデルはトレーニングデータに過度に適合する可能性があるため、トレーニングのための優れた出発点が不可欠である。
近年,ASRタスクのモデル初期化(MI)を学習するメタラーニングが提案されている。
この手法は、モデルが未知の言語に適応した場合に優れた性能をもたらす。
しかし、miはトレーニングタスクのオーバーフィッティング(学習のオーバーフィッティング)に対して脆弱である。
MIが他の低リソースタスクに一般化するかどうかも不明である。
本稿では,子どものasrにおけるmiの有効性を検証し,学習者の過剰フィットの問題を軽減しようとする。
モデルに依存しないメタラーニング(MAML)を実現するため,各年齢における子どもの発話を異なる課題とみなす。
学習者の過度適合の観点から,周波数ワープ手法を用いて新しい年齢をシミュレートし,タスクレベル向上手法を提案する。
幼稚園音声におけるタスク強化が各年齢に与える影響について詳細な実験を行った。
その結果,提案手法は,拡張や初期化を伴わないベースラインシステムに対して,相対単語誤り率(WER)を51%向上させることができた。
関連論文リスト
- Is Child-Directed Speech Effective Training Data for Language Models? [34.46268640655943]
GPT-2 と RoBERTa モデルを英語の子供指向音声の29万語で学習する。
子どものトレーニングデータのグローバルな発達順序付けやローカルな談話順序付けが、他のデータセットと比較して高いパフォーマンスを支えているかどうかを検証する。
これらの結果は、より良いデータから進むのではなく、子供の学習アルゴリズムが現在の言語モデリング技術よりもはるかにデータ効率が高いという仮説を支持している。
論文 参考訳(メタデータ) (2024-08-07T08:18:51Z) - Self-Evolution Learning for Discriminative Language Model Pretraining [103.57103957631067]
自己進化学習(Self-Evolution Learning、SE)は、単純で効果的なトークンマスキングと学習方法である。
SEは情報的だが未探索のトークンを学習することに集中し、新しいToken固有のラベル平滑化アプローチを導入してトレーニングを適応的に調整する。
論文 参考訳(メタデータ) (2023-05-24T16:00:54Z) - Sequence-level self-learning with multiple hypotheses [53.04725240411895]
我々は、自動音声認識(ASR)のためのアテンションベースシーケンス・ツー・シーケンス(seq2seq)モデルを用いた新しい自己学習手法を開発した。
従来の教師なし学習手法とは対照的に,我々はEmphmulti-task Learning(MTL)フレームワークを採用する。
実験の結果,本手法は,英語データのみを用いてトレーニングしたベースラインモデルと比較して,英文音声データのWERを14.55%から10.36%に削減できることがわかった。
論文 参考訳(メタデータ) (2021-12-10T20:47:58Z) - Generating meta-learning tasks to evolve parametric loss for
classification learning [1.1355370218310157]
既存のメタ学習アプローチでは、メタモデルをトレーニングするための学習タスクは通常、公開データセットから収集される。
本稿では,ランダムに生成したメタ学習タスクに基づくメタ学習手法を提案し,ビッグデータに基づく分類学習におけるパラメトリックな損失を求める。
論文 参考訳(メタデータ) (2021-11-20T13:07:55Z) - Task Attended Meta-Learning for Few-Shot Learning [3.0724051098062097]
そこで我々は,タスクアサートメタトレーニングと呼ばれる,人間の選択的な焦点を動機とする学習カリキュラムを紹介し,タスクをバッチで重み付けする。
複雑なデータセットに対する非タスク付きモデルとの比較は、その有効性を検証する。
論文 参考訳(メタデータ) (2021-06-20T07:34:37Z) - ProtoDA: Efficient Transfer Learning for Few-Shot Intent Classification [21.933876113300897]
我々は,メタラーニングパラダイムの下で,原型ネットワークを用いた関連するタスクのアンサンブル上での伝達学習による代替的アプローチを採用する。
本研究は,意図分類を事例として,学習課題における多様性の増大が,分類性能を著しく向上させることを示した。
論文 参考訳(メタデータ) (2021-01-28T00:19:13Z) - Variable-Shot Adaptation for Online Meta-Learning [123.47725004094472]
従来のタスクから静的データにまたがるメタラーニングによって,少数の固定された例から新しいタスクを学習する問題について検討する。
メタラーニングは,従来の教師付き手法に比べて,ラベルの総数が少なく,累積性能も高いタスクセットを解く。
これらの結果から,メタラーニングは,一連の問題を継続的に学習し,改善する学習システムを構築する上で重要な要素であることが示唆された。
論文 参考訳(メタデータ) (2020-12-14T18:05:24Z) - Data augmentation using prosody and false starts to recognize non-native
children's speech [12.911954427107977]
本稿では,AaltoASRによるInterSPEECH 2020共有音声認識タスクのための音声認識システムについて述べる。
本研究の課題は, 年齢の異なる子どもから, 限られた発話量で非母国語を識別することである。
論文 参考訳(メタデータ) (2020-08-29T05:32:32Z) - Pre-training Text Representations as Meta Learning [113.3361289756749]
本稿では,下流タスクを効果的に学習するために,モデルがテキスト表現を学習する能力を直接最適化する学習アルゴリズムを提案する。
マルチタスク事前学習とモデル非依存型メタラーニングの間には,一連のメタトレインステップによる本質的な関係があることが示されている。
論文 参考訳(メタデータ) (2020-04-12T09:05:47Z) - iTAML: An Incremental Task-Agnostic Meta-learning Approach [123.10294801296926]
人間は経験が成長するにつれて、新しい知識を継続的に学ぶことができる。
ディープニューラルネットワークにおける以前の学習は、新しいタスクでトレーニングされたときにすぐに消えてしまう可能性がある。
遭遇した全てのタスク間の平衡を維持するために,新しいメタラーニング手法を導入する。
論文 参考訳(メタデータ) (2020-03-25T21:42:48Z) - Meta Cyclical Annealing Schedule: A Simple Approach to Avoiding
Meta-Amortization Error [50.83356836818667]
循環型アニーリングスケジュールとMMD基準を用いた新しいメタレギュラー化目標を構築した。
実験の結果,本手法は標準的なメタ学習アルゴリズムよりもかなり優れていることがわかった。
論文 参考訳(メタデータ) (2020-03-04T04:43:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。