論文の概要: Rethinking what Matters: Effective and Robust Multilingual Realignment for Low-Resource Languages
- arxiv url: http://arxiv.org/abs/2511.06497v1
- Date: Sun, 09 Nov 2025 18:54:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.981079
- Title: Rethinking what Matters: Effective and Robust Multilingual Realignment for Low-Resource Languages
- Title(参考訳): 重要なことを再考する:低リソース言語における効果的でロバストな多言語認識
- Authors: Quang Phuoc Nguyen, David Anugraha, Felix Gaschi, Jun Bin Cheng, En-Shiun Annie Lee,
- Abstract要約: Realignmentは多言語言語モデルにおける言語間転送を改善するための有望な戦略である。
我々は、すべての利用可能な言語を使用することで、再編成が真に恩恵を受けるか、戦略的に選択されたサブセットが言語間移動に匹敵するか、あるいは改善されるかを検討する。
- 参考スコア(独自算出の注目度): 4.005879928038127
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Realignment is a promising strategy to improve cross-lingual transfer in multilingual language models. However, empirical results are mixed and often unreliable, particularly for typologically distant or low-resource languages (LRLs) compared to English. Moreover, word realignment tools often rely on high-quality parallel data, which can be scarce or noisy for many LRLs. In this work, we conduct an extensive empirical study to investigate whether realignment truly benefits from using all available languages, or if strategically selected subsets can offer comparable or even improved cross-lingual transfer, and study the impact on LRLs. Our controlled experiments show that realignment can be particularly effective for LRLs and that using carefully selected, linguistically diverse subsets can match full multilingual alignment, and even outperform it for unseen LRLs. This indicates that effective realignment does not require exhaustive language coverage and can reduce data collection overhead, while remaining both efficient and robust when guided by informed language selection.
- Abstract(参考訳): Realignmentは多言語言語モデルにおける言語間転送を改善するための有望な戦略である。
しかし、経験的な結果が混ざり合っており、特に英語と比較して、タイポロジー的に遠い言語や低リソース言語(LRL)に対して、しばしば信頼性が低い。
さらに、単語認識ツールは高品質の並列データに依存することが多く、多くのLRLではノイズが少ない。
本研究は,すべての利用可能な言語を使用することで実現可能か,それとも戦略的に選択されたサブセットが言語間移動に匹敵するか,あるいは改善されるのかを検証し,LRLへの影響について検討する。
制御された実験により, 言語的に多様な部分集合は, LRLに対して特に有効であり, 言語的にも多言語的アライメントに適合し, LRLに対して優れることが示された。
このことは、効果的なリアライメントが徹底的な言語カバレッジを必要としないことを示し、情報言語選択によってガイドされるとき、効率的かつ堅牢なままで、データ収集のオーバーヘッドを低減できることを示唆している。
関連論文リスト
- TRepLiNa: Layer-wise CKA+REPINA Alignment Improves Low-Resource Machine Translation in Aya-23 8B [4.282981703665803]
本稿では,デコーダのみを用いた多言語大言語モデル (LLM) の特定の内部層における言語間類似性を強制することにより,LRLから高リソース言語 (HRL) への翻訳品質が向上するかどうかを検討する。
この結果から,TRepLiNaを用いた中層層の整列化は,特にデータスカース設定において,LRL翻訳を改善するための低コストで実用的な手法であることが示唆された。
論文 参考訳(メタデータ) (2025-10-03T17:36:12Z) - Blessing of Multilinguality: A Systematic Analysis of Multilingual In-Context Learning [18.564382777331932]
混合HRLのデモンストレーションは、英語のみのデモよりも一貫して優れていることを示す。
意外なことに、我々のアブレーション研究は、そのプロンプトに無関係な非英語文が存在することが、測定可能な利益をもたらすことを示している。
論文 参考訳(メタデータ) (2025-02-17T02:27:35Z) - Think Carefully and Check Again! Meta-Generation Unlocking LLMs for Low-Resource Cross-Lingual Summarization [108.6908427615402]
CLS(Cross-lingual summarization)は、異なるターゲット言語でソーステキストの要約を生成することを目的としている。
現在、インストラクションチューニング付き大規模言語モデル (LLM) は様々な英語タスクで優れている。
近年の研究では、LCSタスクにおけるLCMの性能は、わずかな設定でも満足できないことが示されている。
論文 参考訳(メタデータ) (2024-10-26T00:39:44Z) - Crosslingual Capabilities and Knowledge Barriers in Multilingual Large Language Models [62.91524967852552]
大規模言語モデル(LLM)は、多言語コーパスの事前訓練のため、一般的に多言語である。
しかし、これらのモデルは言語間の対応する概念、すなわち言語を横断的に関連付けることができるだろうか?
本研究は,言語横断的タスクにおける最先端LLMの評価である。
論文 参考訳(メタデータ) (2024-06-23T15:15:17Z) - Getting More from Less: Large Language Models are Good Spontaneous Multilingual Learners [67.85635044939836]
大きな言語モデル(LLM)は印象的な言語機能を示している。
本研究では,LLMの自然多言語アライメント改善について検討する。
質問翻訳データ(すなわち注釈付き回答なし)に基づいて学習したLLMは、英語と幅広い言語との整合を促進できることがわかった。
論文 参考訳(メタデータ) (2024-05-22T16:46:19Z) - CharSpan: Utilizing Lexical Similarity to Enable Zero-Shot Machine
Translation for Extremely Low-resource Languages [22.51558549091902]
我々は,超低リソース言語 (ELRL) から英語への機械翻訳 (MT) の課題を,「近縁」な高リソース言語 (HRL) からの言語間移動を活用して解決する。
多くのERRLは、いくつかのHRLと語彙的類似性を共有しており、新しいモデリングの機会を提供する。
既存のサブワードベースのニューラルMTモデルは、HRLとELRLの埋め込み空間を暗黙的に調整するだけであるため、この語彙的類似性を明示的に利用しない。
HRLのトレーニングデータに「文字スパンノイズ増強」に基づく新しいCharSpanアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-09T07:23:01Z) - Overlap-based Vocabulary Generation Improves Cross-lingual Transfer
Among Related Languages [18.862296065737347]
語彙重なりの次元に沿った言語族における言語間の関連性は、LRLのコーパス制限を克服するために活用される可能性がある。
そこで我々は,BPE語彙生成アルゴリズムを改良したOverlap BPEを提案する。
論文 参考訳(メタデータ) (2022-03-03T19:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。