論文の概要: InstructAlign: High-and-Low Resource Language Alignment via Continual
Crosslingual Instruction Tuning
- arxiv url: http://arxiv.org/abs/2305.13627v2
- Date: Tue, 24 Oct 2023 08:08:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 00:55:37.088335
- Title: InstructAlign: High-and-Low Resource Language Alignment via Continual
Crosslingual Instruction Tuning
- Title(参考訳): instructalign: 連続的な言語間インストラクションチューニングによる高低リソース言語アライメント
- Authors: Samuel Cahyawijaya, Holy Lovenia, Tiezheng Yu, Willy Chung, Pascale
Fung
- Abstract要約: 命令を調整した大規模言語モデル(LLM)は、様々なタスクや言語で顕著な能力を示している。
しかし、利用可能なデータが不足しているため、表現不足の言語に一般化する能力は限られている。
InstructAlignは、LLMが新しい未知の言語を学習済みの高リソース言語と整列できるようにするために、連続的なクロスリンガル命令チューニングを使用する。
- 参考スコア(独自算出の注目度): 66.31509106146605
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Large language models (LLMs) that are tuned with instructions have
demonstrated remarkable capabilities in various tasks and languages. However,
their ability to generalize to underrepresented languages is limited due to the
scarcity of available data. Additionally, directly adapting new languages to
instruction-tuned LLMs can result in catastrophic forgetting, which leads to
the loss of multitasking ability. To address this issue, we propose
InstructAlign which uses continual crosslingual instruction tuning to enable
LLMs to align new unseen languages with previously learned high-resource
languages. Our results demonstrate the effectiveness of InstructAlign in
enabling the model to understand low-resource languages with limited parallel
data while preventing catastrophic forgetting. Our work contributes to the
advancement of language adaptation methods, particularly for adapting
instruction-tuned LLMs to underrepresented languages. Our code is released on
https://github.com/HLTCHKUST/InstructAlign
- Abstract(参考訳): 命令を調整した大規模言語モデル(LLM)は、様々なタスクや言語で顕著な能力を示している。
しかし、利用可能なデータが不足しているため、表現不足の言語に一般化する能力は限られている。
さらに、命令調整されたLLMに新しい言語を直接適用すると、破滅的な忘れ込みが生じ、マルチタスク能力が失われる。
この問題に対処するために,LLMが新たな未知言語と学習済み高ソース言語との整合を可能にするために,連続的な言語間命令チューニングを使用するInstructAlignを提案する。
InstructAlignの有効性を実証し,並列データに制限のある低リソース言語をモデルで理解し,破滅的な忘れ込みを防止した。
我々の研究は、言語適応手法の進歩に寄与し、特に、未表現言語への命令調整 LLM の適応に寄与する。
私たちのコードはhttps://github.com/HLTCHKUST/InstructAlignでリリースされています
関連論文リスト
- Think Carefully and Check Again! Meta-Generation Unlocking LLMs for Low-Resource Cross-Lingual Summarization [108.6908427615402]
CLS(Cross-lingual summarization)は、異なるターゲット言語でソーステキストの要約を生成することを目的としている。
現在、インストラクションチューニング付き大規模言語モデル (LLM) は様々な英語タスクで優れている。
近年の研究では、LCSタスクにおけるLCMの性能は、わずかな設定でも満足できないことが示されている。
論文 参考訳(メタデータ) (2024-10-26T00:39:44Z) - Getting More from Less: Large Language Models are Good Spontaneous Multilingual Learners [67.85635044939836]
大きな言語モデル(LLM)は印象的な言語機能を示している。
本研究では,LLMの自然多言語アライメント改善について検討する。
質問翻訳データ(すなわち注釈付き回答なし)に基づいて学習したLLMは、英語と幅広い言語との整合を促進できることがわかった。
論文 参考訳(メタデータ) (2024-05-22T16:46:19Z) - xCoT: Cross-lingual Instruction Tuning for Cross-lingual
Chain-of-Thought Reasoning [36.34986831526529]
CoT(Chain-of-Thought)は、大規模言語モデルにおける推論を誘発する強力なテクニックとして登場した。
本稿では,ハイソース言語から低リソース言語へ知識を伝達するための言語間命令微調整フレームワーク(xCOT)を提案する。
論文 参考訳(メタデータ) (2024-01-13T10:53:53Z) - PLUG: Leveraging Pivot Language in Cross-Lingual Instruction Tuning [46.153828074152436]
我々は、低リソース言語における命令チューニングを強化するために、ピボット言語ガイド生成手法を提案する。
モデルを訓練して、まずピボット言語で命令を処理し、次にターゲット言語で応答を生成する。
提案手法は,LLMの命令追従能力が平均29%向上したことを示す。
論文 参考訳(メタデータ) (2023-11-15T05:28:07Z) - Okapi: Instruction-tuned Large Language Models in Multiple Languages
with Reinforcement Learning from Human Feedback [61.83548032416181]
複数の言語を対象としたRLHFに基づく命令調整型LLMシステムであるOkapiを提案する。
オカピは26の多言語言語でインストラクションと応答ランクデータを導入し、将来の多言語LLM研究の促進と開発に役立てている。
論文 参考訳(メタデータ) (2023-07-29T18:01:46Z) - Democratizing LLMs for Low-Resource Languages by Leveraging their English Dominant Abilities with Linguistically-Diverse Prompts [75.33019401706188]
大規模言語モデル(LLM)は、少数の例を単純に観察することで、効果的にタスクを実行することが知られている。
我々は,LLMが任意の言語から英語に翻訳するよう促すために,多種多様な高ソース言語から合成例を組み立てることを提案する。
我々の教師なしプロンプト法は、英語と13のIndic言語と21のアフリカ低リソース言語間の翻訳において、異なる大きさのLLMにおける教師付き少ショット学習と同等に機能する。
論文 参考訳(メタデータ) (2023-06-20T08:27:47Z) - UNKs Everywhere: Adapting Multilingual Language Models to New Scripts [103.79021395138423]
マルチリンガルBERT(mBERT)やXLM-Rのような多言語言語モデルは、様々なNLPタスクに対して最先端の言語間転送性能を提供する。
キャパシティの制限と事前トレーニングデータの大きな差のため、リソース豊富な言語とリソースを対象とする言語には大きなパフォーマンスギャップがある。
本稿では,事前学習した多言語モデルの低リソース言語や未知のスクリプトへの高速かつ効果的な適応を可能にする新しいデータ効率手法を提案する。
論文 参考訳(メタデータ) (2020-12-31T11:37:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。