論文の概要: PLUG: Leveraging Pivot Language in Cross-Lingual Instruction Tuning
- arxiv url: http://arxiv.org/abs/2311.08711v2
- Date: Mon, 12 Feb 2024 01:09:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 21:45:15.719569
- Title: PLUG: Leveraging Pivot Language in Cross-Lingual Instruction Tuning
- Title(参考訳): PLUG: 言語間インストラクションチューニングにおけるPivot言語の利用
- Authors: Zhihan Zhang, Dong-Ho Lee, Yuwei Fang, Wenhao Yu, Mengzhao Jia, Meng
Jiang, Francesco Barbieri
- Abstract要約: 我々は、低リソース言語における命令チューニングを強化するために、ピボット言語ガイド生成手法を提案する。
モデルを訓練して、まずピボット言語で命令を処理し、次にターゲット言語で応答を生成する。
提案手法は,LLMの命令追従能力が平均29%向上したことを示す。
- 参考スコア(独自算出の注目度): 46.153828074152436
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Instruction tuning has remarkably advanced large language models (LLMs) in
understanding and responding to diverse human instructions. Despite the success
in high-resource languages, its application in lower-resource ones faces
challenges due to the imbalanced foundational abilities of LLMs across
different languages, stemming from the uneven language distribution in their
pre-training data. To tackle this issue, we propose pivot language guided
generation (PLUG), an approach that utilizes a high-resource language,
primarily English, as the pivot to enhance instruction tuning in lower-resource
languages. It trains the model to first process instructions in the pivot
language, and then produce responses in the target language. To evaluate our
approach, we introduce a benchmark, X-AlpacaEval, of instructions in 4
languages (Chinese, Korean, Italian, and Spanish), each annotated by
professional translators. Our approach demonstrates a significant improvement
in the instruction-following abilities of LLMs by 29% on average, compared to
directly responding in the target language alone. Further experiments validate
the versatility of our approach by employing alternative pivot languages beyond
English to assist languages where LLMs exhibit lower proficiency. Our code and
data are available at https://github.com/ytyz1307zzh/PLUG.
- Abstract(参考訳): インストラクションチューニングは、多種多様な人間の指示に対する理解と応答において著しく進歩した大規模言語モデル(LLM)である。
高リソース言語の成功にもかかわらず、低リソース言語におけるその応用は、学習前のデータにおける不均一な言語分布に起因する、異なる言語間でのLLMの基盤能力の不均衡による課題に直面している。
この問題に対処するため、我々は、低リソース言語における命令チューニングを強化するために、高リソース言語(主に英語)を利用するピボット言語ガイド生成(PLUG)を提案する。
モデルをピボット言語で最初に処理し、次にターゲット言語で応答を生成するようにトレーニングする。
提案手法を評価するために,プロの翻訳者による4言語(中国語,韓国語,イタリア語,スペイン語)の指示のベンチマーク,X-AlpacaEvalを導入する。
提案手法は,LLMの命令追従能力が目標言語単独で直接応答した場合と比較して,平均29%向上したことを示す。
さらなる実験では、LLMが習熟度が低い言語を支援するために、英語以外の代替のピボット言語を利用することで、我々のアプローチの汎用性を検証する。
私たちのコードとデータはhttps://github.com/ytyz1307zzh/plugで入手できます。
関連論文リスト
- Think Carefully and Check Again! Meta-Generation Unlocking LLMs for Low-Resource Cross-Lingual Summarization [108.6908427615402]
CLS(Cross-lingual summarization)は、異なるターゲット言語でソーステキストの要約を生成することを目的としている。
現在、インストラクションチューニング付き大規模言語モデル (LLM) は様々な英語タスクで優れている。
近年の研究では、LCSタスクにおけるLCMの性能は、わずかな設定でも満足できないことが示されている。
論文 参考訳(メタデータ) (2024-10-26T00:39:44Z) - Towards a More Inclusive AI: Progress and Perspectives in Large Language Model Training for the Sámi Language [7.289015788793582]
本研究は、S'ami言語における技術参加の増大に焦点を当てている。
我々は,Ultra Low Resource (ULR)言語の言語モデリング問題に対して,MLコミュニティの注目を集めている。
Webから利用可能なS'ami言語リソースをコンパイルして、言語モデルをトレーニングするためのクリーンなデータセットを作成しました。
論文 参考訳(メタデータ) (2024-05-09T13:54:22Z) - Enhancing Multilingual Capabilities of Large Language Models through
Self-Distillation from Resource-Rich Languages [60.162717568496355]
大規模言語モデル(LLM)は多言語コーパスで事前訓練されている。
彼らのパフォーマンスは、いくつかのリソース豊富な言語と比較して、ほとんどの言語でまだ遅れています。
論文 参考訳(メタデータ) (2024-02-19T15:07:32Z) - TaCo: Enhancing Cross-Lingual Transfer for Low-Resource Languages in LLMs through Translation-Assisted Chain-of-Thought Processes [9.254047358707014]
本稿では,Alpaca-52K,Dolly-15K,Vicuna Benchmarkを132言語に翻訳する多言語インストラクション・チューニングデータセット(MITS)を紹介する。
次に,emphTaCo: Translation-Assisted Cross-Lingualityという新たな手法を提案する。
提案手法は,Vicuna Benchmark データセットの低リソース言語に対して 82% のスコアで GPT-4 を圧縮し,命令チューニングと比較して性能を2倍にすることを示す。
論文 参考訳(メタデータ) (2023-11-17T06:55:32Z) - Okapi: Instruction-tuned Large Language Models in Multiple Languages
with Reinforcement Learning from Human Feedback [61.83548032416181]
複数の言語を対象としたRLHFに基づく命令調整型LLMシステムであるOkapiを提案する。
オカピは26の多言語言語でインストラクションと応答ランクデータを導入し、将来の多言語LLM研究の促進と開発に役立てている。
論文 参考訳(メタデータ) (2023-07-29T18:01:46Z) - Democratizing LLMs for Low-Resource Languages by Leveraging their English Dominant Abilities with Linguistically-Diverse Prompts [75.33019401706188]
大規模言語モデル(LLM)は、少数の例を単純に観察することで、効果的にタスクを実行することが知られている。
我々は,LLMが任意の言語から英語に翻訳するよう促すために,多種多様な高ソース言語から合成例を組み立てることを提案する。
我々の教師なしプロンプト法は、英語と13のIndic言語と21のアフリカ低リソース言語間の翻訳において、異なる大きさのLLMにおける教師付き少ショット学習と同等に機能する。
論文 参考訳(メタデータ) (2023-06-20T08:27:47Z) - InstructAlign: High-and-Low Resource Language Alignment via Continual
Crosslingual Instruction Tuning [66.31509106146605]
命令を調整した大規模言語モデル(LLM)は、様々なタスクや言語で顕著な能力を示している。
しかし、利用可能なデータが不足しているため、表現不足の言語に一般化する能力は限られている。
InstructAlignは、LLMが新しい未知の言語を学習済みの高リソース言語と整列できるようにするために、連続的なクロスリンガル命令チューニングを使用する。
論文 参考訳(メタデータ) (2023-05-23T02:51:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。