論文の概要: Continual Adaptation for Pacific Indigenous Speech Recognition
- arxiv url: http://arxiv.org/abs/2603.06310v1
- Date: Fri, 06 Mar 2026 14:13:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:45.886505
- Title: Continual Adaptation for Pacific Indigenous Speech Recognition
- Title(参考訳): 太平洋性内在性音声認識における連続的適応
- Authors: Yang Xiao, Aso Mahmudi, Nick Thieberger, Eliathamby Ambikairajah, Eun-Jung Holden, Ting Dang,
- Abstract要約: 音声基礎モデルは、厳しいデータ不足のため、低リソースの太平洋先住民言語と競合する。
フルファインチューニングとローランド適応(LoRA)を含む戦略を評価する。
本研究は,未表現言語に合わせた頑健な適応戦略の必要性を強調した。
- 参考スコア(独自算出の注目度): 15.047005812339561
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Speech foundation models struggle with low-resource Pacific Indigenous languages because of severe data scarcity. Furthermore, full fine-tuning risks catastrophic forgetting. To address this gap, we present an empirical study adapting models to real-world Pacific datasets. We investigate how data volume and linguistic features affect adaptation success. Specifically, we evaluate strategies including Full Fine-Tuning and Low-Rank Adaptation (LoRA). Additionally, we analyze a continual learning framework for sequentially acquiring multiple languages. We demonstrate that adapting to these distant languages causes severe internal representational drift. Consequently, these models face a strict plasticity and stability dilemma. While LoRA adapts well initially, it suffers from catastrophic forgetting during sequential learning. Ultimately, this study highlights the urgent need for robust adaptation strategies tailored to underrepresented languages.
- Abstract(参考訳): 音声基礎モデルは、厳しいデータ不足のため、低リソースの太平洋先住民言語と競合する。
さらに、完全な微調整は破滅的な忘れ込みのリスクを負う。
このギャップに対処するため、実世界の太平洋データセットにモデルを適応させる実証的研究を行った。
データ量と言語的特徴が適応の成功にどのように影響するかを検討する。
具体的には,Low-Rank Adaptation (LoRA) とFull Fine-Tuning (Low-Rank Adaptation) の戦略を評価する。
さらに,複数の言語を逐次取得するための連続学習フレームワークも分析する。
これらの遠方言語への適応は、内部表現の激しい漂流を引き起こすことを実証する。
その結果、これらのモデルは厳密な塑性と安定性のジレンマに直面している。
LoRAは最初は順応するが、逐次学習中に破滅的な忘れ込みに悩まされる。
最終的に、この研究は、未表現言語に合わせた堅牢な適応戦略の緊急の必要性を強調した。
関連論文リスト
- Adapting Where It Matters: Depth-Aware Adaptation for Efficient Multilingual Speech Recognition in Low-Resource Languages [11.808922632545874]
我々は多言語自動音声認識モデルを分析し、U字型適応パターンを明らかにする。
本稿では,各レイヤの役割に応じて適応能力を割り当てる,深層対応モデル適応フレームワークDAMAを提案する。
Damaは、最先端の精度とトレーニング可能なパラメータを80%削減し、極端なデータ不足下で29%のエラー削減を実現し、ベースラインよりもメモリ、トレーニング時間、計算効率を大幅に改善する。
論文 参考訳(メタデータ) (2026-02-01T04:18:31Z) - From Word to World: Can Large Language Models be Implicit Text-based World Models? [82.47317196099907]
エージェント強化学習は、経験駆動のスケーリングにますます依存している。
世界モデルは、シミュレートされた経験を通して学習効率を改善する潜在的方法を提供する。
大規模言語モデルがこの役割を確実に果たせるか,どのような条件でエージェントに有意義な利益をもたらすかを検討する。
論文 参考訳(メタデータ) (2025-12-21T17:28:42Z) - Emergent Abilities of Large Language Models under Continued Pretraining for Language Adaptation [30.437905209587356]
我々は、英語を含むと、検証の難易度には影響しないが、ターゲット言語における下流能力の出現には重要であることを示した。
本稿では,英語の必要性を緩和するための効果的な代替手段として,カリキュラム学習と指数移動平均(EMA)を導入する。
論文 参考訳(メタデータ) (2025-05-30T22:31:59Z) - Exploring Robustness of LLMs to Paraphrasing Based on Sociodemographic Factors [7.312170216336085]
我々は、SocialIQAデータセットを拡張して、社会デマログラフィー要因に基づく多様なパラフレーズセットを作成する。
人口統計に基づく言い回しが言語モデルの性能に大きな影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2025-01-14T17:50:06Z) - Challenges in Adapting Multilingual LLMs to Low-Resource Languages using LoRA PEFT Tuning [0.4194295877935868]
本研究では,ローランド適応 (LoRA) -高効率ファインチューニング (PEFT) がマラウイの多言語Gemmaモデルに及ぼす影響について検討した。
52,000対の命令応答対を持つ翻訳データセットを用いて、評価結果が微調整後に低下する一方で、手動による評価では、微調整されたモデルが元のモデルよりも優れていることがしばしば示唆されている。
論文 参考訳(メタデータ) (2024-11-27T18:14:38Z) - How to Learn a New Language? An Efficient Solution for Self-Supervised Learning Models Unseen Languages Adaption in Low-Resource Scenario [72.02391485962127]
音声認識(ASR)における音声自己監視学習(SSL)モデルの性能向上
低リソース言語 ASR では、事前訓練された言語と低リソース言語のドメインミスマッチ問題に遭遇する。
これらの問題に対処するためのアダプタに基づく従来型の効率的な微調整手法を拡張した。
論文 参考訳(メタデータ) (2024-11-27T10:51:00Z) - Low-Rank Adaptation for Multilingual Summarization: An Empirical Study [60.541168233698194]
私たちはその可能性を調査する。
多言語要約領域におけるローランド適応(LoRA)に着目した効率的なファインチューニング
ハイデータやローデータの設定、言語間転送など、さまざまなデータ可用性シナリオに関する広範な調査を行います。
以上の結果から,LoRAは大量のデータでトレーニングされた場合の完全な微調整と競合し,低データシナリオや言語間転送に優れることがわかった。
論文 参考訳(メタデータ) (2023-11-14T22:32:39Z) - Towards Lifelong Learning of Multilingual Text-To-Speech Synthesis [87.75833205560406]
本研究は,多言語テキスト音声(TTS)システムを学習するための生涯学習手法を提案する。
すべての言語からプールされたデータを必要としないため、ストレージと計算の負担が軽減される。
論文 参考訳(メタデータ) (2021-10-09T07:00:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。