論文の概要: Question Translation Training for Better Multilingual Reasoning
- arxiv url: http://arxiv.org/abs/2401.07817v1
- Date: Mon, 15 Jan 2024 16:39:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 16:39:41.974955
- Title: Question Translation Training for Better Multilingual Reasoning
- Title(参考訳): 多言語推論改善のための質問翻訳訓練
- Authors: Wenhao Zhu, Shujian Huang, Fei Yuan, Shuaijie She, Jiajun Chen,
Alexandra Birch
- Abstract要約: 大規模言語モデルは推論タスクにおいて魅力的なパフォーマンスを示すが、英語以外の言語ではより悪いパフォーマンスを示す傾向がある。
典型的な解決策は、命令データを興味のあるすべての言語に翻訳し、結果の多言語データをトレーニングすることである。
質問のアライメントは、翻訳学習アプローチよりも一貫した改善をもたらすことを示す。
- 参考スコア(独自算出の注目度): 113.5214494700372
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models show compelling performance on reasoning tasks but they
tend to perform much worse in languages other than English. This is
unsurprising given that their training data largely consists of English text
and instructions. A typical solution is to translate instruction data into all
languages of interest, and then train on the resulting multilingual data, which
is called translate-training. This approach not only incurs high cost, but also
results in poorly translated data due to the non-standard formatting of
chain-of-thought and mathematical reasoning instructions. In this paper, we
explore the benefits of question alignment, where we train the model to
translate reasoning questions into English by finetuning on X-English question
data. In this way we perform targetted, in-domain language alignment which
makes best use of English instruction data to unlock the LLMs' multilingual
reasoning abilities. Experimental results on LLaMA2-13B show that question
alignment leads to consistent improvements over the translate-training
approach: an average improvement of 11.3\% and 16.1\% accuracy across ten
languages on the MGSM and MSVAMP maths reasoning benchmarks (The project will
be available at: https://github.com/NJUNLP/QAlign).
- Abstract(参考訳): 大規模言語モデルは推論タスクにおいて魅力的なパフォーマンスを示すが、英語以外の言語ではより悪いパフォーマンスを示す傾向がある。
トレーニングデータは、ほとんどが英語のテキストと指示で構成されているので、これは驚きではない。
典型的な解決策は、命令データを興味のあるすべての言語に翻訳し、結果の多言語データをトレーニングすることである。
このアプローチは高いコストを発生させるだけでなく、チェーン・オブ・ソートや数学的推論命令の非標準フォーマットのため、低翻訳データをもたらす。
本稿では,x- english 質問データの微調整によって推論質問を英語に翻訳するモデルをトレーニングする,質問アライメントの利点について検討する。
このようにして、LLMの多言語推論能力を解き放つために、英語の命令データを最大限に活用するドメイン内言語アライメントを実行する。
LLaMA2-13Bの実験結果は、質問のアライメントが翻訳訓練アプローチよりも一貫した改善をもたらすことを示している: MGSMとMSVAMPの数学推論ベンチマーク上の10言語で平均11.3\%と16.1\%の精度(https://github.com/NJUNLP/QAlign)。
関連論文リスト
- The Power of Question Translation Training in Multilingual Reasoning: Broadened Scope and Deepened Insights [108.40766216456413]
大規模言語モデルの英語と非英語のパフォーマンスのギャップを埋めるための質問アライメントフレームワークを提案する。
実験結果から、さまざまな推論シナリオ、モデルファミリー、サイズにわたって、多言語のパフォーマンスを向上できることが示された。
我々は、表現空間、生成された応答とデータスケールを分析し、質問翻訳訓練がLLM内の言語アライメントをどのように強化するかを明らかにする。
論文 参考訳(メタデータ) (2024-05-02T14:49:50Z) - Could We Have Had Better Multilingual LLMs If English Was Not the Central Language? [4.655168524016426]
大規模言語モデル(LLM)は、トレーニング対象の言語に対して強力な機械翻訳能力を示す。
我々の研究は、Llama2の翻訳能力について論じている。
実験の結果,7B Llama2モデルはこれまでに見たすべての言語に翻訳すると10 BLEU以上になることがわかった。
論文 参考訳(メタデータ) (2024-02-21T16:32:38Z) - The Belebele Benchmark: a Parallel Reading Comprehension Dataset in 122 Language Variants [80.4837840962273]
私たちは122の言語変種にまたがるデータセットであるBelebeleを紹介します。
このデータセットは、高、中、低リソース言語におけるテキストモデルの評価を可能にする。
論文 参考訳(メタデータ) (2023-08-31T17:43:08Z) - Empowering Cross-lingual Abilities of Instruction-tuned Large Language
Models by Translation-following demonstrations [0.8133739801185272]
We propose CrossAlpaca, a It-LLM with cross-lingual instruction-following and translation-following demonstrations。
我々のモデルは、6つの異なる言語でテストされ、単言語データで調整された It-LLM よりも優れています。
論文 参考訳(メタデータ) (2023-08-27T19:22:12Z) - Extrapolating Large Language Models to Non-English by Aligning Languages [109.09051737966178]
既存の大きな言語モデルは、異なる言語間で異なる能力を示す。
本稿では,言語間のセマンティックアライメントを構築することで,英語以外の言語に事前学習したLLMを強化する。
論文 参考訳(メタデータ) (2023-08-09T13:32:06Z) - XNLI 2.0: Improving XNLI dataset and performance on Cross Lingual
Understanding (XLU) [0.0]
我々は、XNLIに存在する14の言語すべてでMNLIデータセットを再翻訳することで、元のXNLIデータセットの改善に注力する。
また、15言語すべてでモデルを訓練し、自然言語推論のタスクでそれらの性能を分析する実験を行った。
論文 参考訳(メタデータ) (2023-01-16T17:24:57Z) - Crosslingual Generalization through Multitask Finetuning [80.8822603322471]
マルチタスク誘導ファインタニング(MTF)は、大きな言語モデルがゼロショット設定で新しいタスクに一般化するのに役立つことが示されている。
MTFを事前訓練された多言語BLOOMおよびmT5モデルファミリーに適用し、BLOOMZおよびmT0と呼ばれる微調整された変種を生成する。
英語のプロンプトを用いた英語タスクにおける多言語多言語モデルの微調整により、非英語言語へのタスク一般化が可能となる。
論文 参考訳(メタデータ) (2022-11-03T13:19:32Z) - MuCoT: Multilingual Contrastive Training for Question-Answering in
Low-resource Languages [4.433842217026879]
マルチ言語BERTベースのモデル(mBERT)は、高ソース言語から低リソース言語への知識伝達にしばしば使用される。
対象言語のQAサンプルを他の言語に翻訳し,mBERTベースのQAモデルを微調整するために拡張データを使用する。
Google ChAIIデータセットの実験では、mBERTモデルを同じ言語ファミリーからの翻訳で微調整することで、質問応答のパフォーマンスが向上することが示された。
論文 参考訳(メタデータ) (2022-04-12T13:52:54Z) - Beyond English-Centric Multilingual Machine Translation [74.21727842163068]
我々は真の多言語多言語翻訳モデルを作成し、100言語のいずれかのペア間で直接翻訳できる。
大規模なマイニングによって生成された教師付きデータで、数千の言語方向をカバーするトレーニングデータセットを構築し、オープンソースにしています。
WMTのベストシングルシステムに競争力を持たせながら、非英語の方向を直接翻訳する場合、非英語モデルに焦点をあてると10 BLEU以上のゲインが得られる。
論文 参考訳(メタデータ) (2020-10-21T17:01:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。