論文の概要: NIRANTAR: Continual Learning with New Languages and Domains on Real-world Speech Data
- arxiv url: http://arxiv.org/abs/2507.00534v1
- Date: Tue, 01 Jul 2025 07:53:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:59.474824
- Title: NIRANTAR: Continual Learning with New Languages and Domains on Real-world Speech Data
- Title(参考訳): NIRANTAR: 実世界の音声データに基づく新しい言語とドメインによる継続的な学習
- Authors: Tahir Javed, Kaushal Bhogale, Mitesh M. Khapra,
- Abstract要約: Nirantarは、多言語および多ドメインASRにおける連続学習を評価するための包括的なフレームワークである。
自然のエピソードを通じて、インドの22の言語と208の地区で収集されたデータを活用します。
Nirantarは動的で一様でない言語とドメインシフトを示しており、CL研究の理想的なテストベッドとなっている。
- 参考スコア(独自算出の注目度): 21.05383418996892
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce Nirantar, a comprehensive framework for evaluating continual learning (CL) in multilingual and multi-domain ASR. Designed to reflect real-world CL challenges, Nirantar leverages data collected incrementally across 22 languages and 208 districts in India through natural episodes. This enables evaluation across Language-Incremental (LIL), Domain-Incremental (DIL), and the novel Language-Incremental Domain-Incremental Learning (LIDIL) scenarios. Unlike prior work that relies on simulated episodes, Nirantar presents dynamic, non-uniform language and domain shifts, making it an ideal testbed for CL research. With 3250 hours of human-transcribed speech, including 1720 hours newly introduced in this work, our framework enables systematic benchmarking of CL methods. We evaluate existing approaches and demonstrate that no single method performs consistently well, underscoring the need for more robust CL strategies.
- Abstract(参考訳): 我々は,多言語および多ドメインASRにおける連続学習(CL)を評価する包括的なフレームワークであるNirantarを紹介する。
Nirantarは、現実世界のCL課題を反映して設計されたもので、自然のエピソードを通じて22の言語と208の地区で収集されたデータをインクリメンタルに活用する。
これにより、Language-Incremental (LIL)、Domain-Incremental (DIL)、そして新しいLanguage-Incremental Domain-Incremental Learning (LIDIL)シナリオでの評価が可能になる。
シミュレーションされたエピソードに依存する以前の作業とは異なり、Nirantarは動的で一様でない言語とドメインシフトを示しており、CL研究の理想的なテストベッドとなっている。
本研究で新たに導入された1720時間を含む3250時間の人書き音声を用いて,本フレームワークはCL手法の体系的ベンチマークを可能にする。
我々は既存の手法を評価し、より堅牢なCL戦略の必要性を強調し、単一の手法が一貫してうまく動作しないことを実証する。
関連論文リスト
- ChatZero:Zero-shot Cross-Lingual Dialogue Generation via Pseudo-Target Language [53.8622516025736]
そこで本研究では,言語間符号切替方式に基づく,エンドツーエンドのゼロショット対話生成モデルChatZeroを提案する。
多言語DailyDialogとDSTC7-AVSDデータセットの実験は、ChatZeroが元のパフォーマンスの90%以上を達成することを示した。
論文 参考訳(メタデータ) (2024-08-16T13:11:53Z) - Embracing Language Inclusivity and Diversity in CLIP through Continual
Language Learning [58.92843729869586]
視覚言語事前学習モデル (VL-PTMs) は近年、先進的なマルチモーダル研究を行っているが、英語のようないくつかの言語での習得は、より広いコミュニティにおける適用性を制限している。
我々は,連続言語学習(CLL)によってVL-PTMの言語能力を拡張することを提案する。
我々は,MSCOCOおよびXM3600データセットに基づく36言語をカバーするCLLベンチマークを構築し,多言語画像テキスト検索性能を評価する。
論文 参考訳(メタデータ) (2024-01-30T17:14:05Z) - From Classification to Generation: Insights into Crosslingual Retrieval
Augmented ICL [8.065775937617417]
クロスランガル検索強化インコンテキスト学習(CREA-ICL)を利用した新しい手法を提案する。
高ソース言語から意味論的に類似したプロンプトを抽出することにより、多言語事前学習言語モデル(MPLM)のゼロショット性能の向上を目指す。
我々の手法は分類タスクを着実に改善するが、生成タスクでは課題に直面している。
論文 参考訳(メタデータ) (2023-11-11T15:40:21Z) - Bridging the Language Gap: Dynamic Learning Strategies for Improving Multilingual Performance in LLMs [15.911445732909849]
大規模言語モデル(LLM)は様々なドメインに革命をもたらしたが、それでも非ラテン語スクリプトや低リソース言語に苦戦している。
本稿では,実行時にクエリ毎のプロンプト戦略,埋め込みモデル,LLMを最適化する,新しい動的学習手法を提案する。
提案手法では,事前学習モデルに比べて10~15%の言語性能向上と4倍のゲインを達成できた。
論文 参考訳(メタデータ) (2023-05-28T14:48:38Z) - Efficiently Aligned Cross-Lingual Transfer Learning for Conversational
Tasks using Prompt-Tuning [98.60739735409243]
英語のような高リソース言語で訓練された言語モデルの言語間移動は、多くのNLPタスクのために広く研究されている。
並列および大規模多言語会話データセットである言語間アライメント事前学習のためのXSGDを導入する。
協調的な言語間表現を容易にするために,アライメントプロンプトを学習するための効率的なプロンプトチューニング手法を開発した。
論文 参考訳(メタデータ) (2023-04-03T18:46:01Z) - Meta-X$_{NLG}$: A Meta-Learning Approach Based on Language Clustering
for Zero-Shot Cross-Lingual Transfer and Generation [11.155430893354769]
本稿では,類型的に多様な言語から共有可能な構造を学習するためのメタラーニングフレームワークを提案する。
まず、まず言語表現に基づいて言語をクラスタ化し、各クラスタのセントロイド言語を識別する。
メタ学習アルゴリズムは、全てのセントロイド言語で訓練され、ゼロショット設定で他の言語で評価される。
論文 参考訳(メタデータ) (2022-03-19T05:22:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。