論文の概要: Bactrian-X : A Multilingual Replicable Instruction-Following Model with
Low-Rank Adaptation
- arxiv url: http://arxiv.org/abs/2305.15011v1
- Date: Wed, 24 May 2023 10:50:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 16:56:57.109117
- Title: Bactrian-X : A Multilingual Replicable Instruction-Following Model with
Low-Rank Adaptation
- Title(参考訳): Bactrian-X : 低ランク適応型多言語レプリケーションフォローモデル
- Authors: Haonan Li and Fajri Koto and Minghao Wu and Alham Fikri Aji and
Timothy Baldwin
- Abstract要約: Bactrian-Xは52言語にまたがる340万の命令応答対の包括的な多言語並列データセットである。
基本モデルとシームレスに統合された軽量なコンポーネントであるローランク適応(LoRA)を用いて,アダプタセットを訓練する。
提案手法は,バニラモデルと既存の命令調整モデルの両方より優れている。
- 参考スコア(独自算出の注目度): 26.81624995255668
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Instruction tuning has shown great promise in the field of natural language
processing. However, the research on multilingual instruction tuning has been
limited due to the scarcity of high-quality instruction-response datasets. To
address this gap, we present Bactrian-X, a comprehensive multilingual parallel
dataset of 3.4 million instruction-response pairs across 52 languages.
Leveraging this dataset, we train a set of adapters using low-rank adaptation
(LoRA), which are lightweight components seamlessly integrated with
foundational models. These adapters have a significantly smaller parameter
count than the base model, making them easily replaceable and usable as
plug-ins for different languages or language groups. Through extensive
experiments on 52 languages, we demonstrate the superior performance of our
models in various multilingual evaluation settings. Our proposed models
outperform both the vanilla models and the existing instruction-tuned models.
The code and models are publicly available at
https://github.com/mbzuai-nlp/bactrian-x.
- Abstract(参考訳): インストラクションチューニングは自然言語処理の分野で大きな可能性を秘めている。
しかし、高品質な命令応答データセットが不足しているため、多言語命令チューニングの研究は限られている。
このギャップに対処するため,52言語にまたがる340万の命令応答対からなる多言語並列データセットであるBactrian-Xを提案する。
このデータセットを活用することで、基礎モデルとシームレスに統合された軽量なコンポーネントであるローランク適応(LoRA)を使用して、アダプタセットをトレーニングする。
これらのアダプタはベースモデルよりもかなり小さいパラメータ数を持ち、様々な言語や言語グループのプラグインとして簡単に置き換えられる。
52言語に対する広範囲な実験を通じて,多言語評価設定におけるモデルの優れた性能を示す。
提案モデルはバニラモデルと既存の命令調整モデルの両方を上回っている。
コードとモデルはhttps://github.com/mbzuai-nlp/bactrian-xで公開されている。
関連論文リスト
- ML-SUPERB 2.0: Benchmarking Multilingual Speech Models Across Modeling Constraints, Languages, and Datasets [106.7760874400261]
本稿では、事前訓練されたSSLと教師付き音声モデルを評価するための新しいベンチマークであるML-SUPERB2.0を提案する。
ML-SUPERBのセットアップよりも性能が向上するが、性能は下流モデル設計に依存している。
また、言語とデータセットのパフォーマンスに大きな違いがあることから、よりターゲットを絞ったアプローチの必要性も示唆されている。
論文 参考訳(メタデータ) (2024-06-12T21:01:26Z) - Language Models on a Diet: Cost-Efficient Development of Encoders for Closely-Related Languages via Additional Pretraining [4.38070902806635]
クロアチア語、セルビア語、ボスニア語、モンテネグロ語のベンチマークを設定しました。
我々は、利用可能な多言語モデルの追加事前学習により、専用のin-scratchモデルに匹敵する性能が得られることを示す。
また、Slovenianの場合、隣接する言語は、最終モデルの性能にほとんど、あるいは全く損なわない追加の事前訓練に含めることができることを示す。
論文 参考訳(メタデータ) (2024-04-08T11:55:44Z) - XSemPLR: Cross-Lingual Semantic Parsing in Multiple Natural Languages
and Meaning Representations [25.50509874992198]
Cross-Lingual Semantic Parsingは、複数の自然言語のクエリを意味表現に変換することを目的としている。
既存のCLSPモデルは個別に提案され、限られたタスクやアプリケーションのデータセット上で評価される。
XSemPLRは、22の自然言語と8つの意味表現を特徴とする言語間意味解析のための統一的なベンチマークである。
論文 参考訳(メタデータ) (2023-06-07T01:09:37Z) - Language-Family Adapters for Low-Resource Multilingual Neural Machine
Translation [129.99918589405675]
自己超越で訓練された大規模多言語モデルは、幅広い自然言語処理タスクにおいて最先端の結果を達成する。
マルチリンガルな微調整は低リソース言語のパフォーマンスを向上させるが、モデル全体を変更する必要があるため、極めて高価である。
言語間移動を容易にするため,mBART-50上で言語ファミリーアダプタを訓練する。
論文 参考訳(メタデータ) (2022-09-30T05:02:42Z) - mGPT: Few-Shot Learners Go Multilingual [1.4354798873010843]
本稿では,60言語で訓練された13億のパラメータと13億のパラメータを持つ2つの自己回帰型GPT様モデルを提案する。
我々はGPT-2ソースとスパースアテンション機構を用いてGPT-3アーキテクチャを再現する。
その結果得られたモデルは、Facebookが最近リリースしたXGLMモデルと同等のパフォーマンスを示している。
論文 参考訳(メタデータ) (2022-04-15T13:02:33Z) - UNKs Everywhere: Adapting Multilingual Language Models to New Scripts [103.79021395138423]
マルチリンガルBERT(mBERT)やXLM-Rのような多言語言語モデルは、様々なNLPタスクに対して最先端の言語間転送性能を提供する。
キャパシティの制限と事前トレーニングデータの大きな差のため、リソース豊富な言語とリソースを対象とする言語には大きなパフォーマンスギャップがある。
本稿では,事前学習した多言語モデルの低リソース言語や未知のスクリプトへの高速かつ効果的な適応を可能にする新しいデータ効率手法を提案する。
論文 参考訳(メタデータ) (2020-12-31T11:37:28Z) - Multilingual Translation with Extensible Multilingual Pretraining and
Finetuning [77.33262578776291]
これまでの研究は、bitextで微調整することで機械翻訳システムを作成できることを実証してきた。
多言語翻訳モデルは多言語微調整により作成可能であることを示す。
事前訓練されたモデルは、性能を損なうことなく、追加の言語を組み込むように拡張できることを実証する。
論文 参考訳(メタデータ) (2020-08-02T05:36:55Z) - Learning to Scale Multilingual Representations for Vision-Language Tasks [51.27839182889422]
SMALRの有効性は、これまでビジョン言語タスクでサポートされた2倍以上の10の多言語で実証されている。
単語の埋め込み手法と比較して,訓練パラメータの1/5以下で,複数言語による画像文検索と先行作業の3~4%の性能評価を行った。
論文 参考訳(メタデータ) (2020-04-09T01:03:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。