論文の概要: WizardLM: Empowering Large Language Models to Follow Complex
Instructions
- arxiv url: http://arxiv.org/abs/2304.12244v2
- Date: Sat, 10 Jun 2023 13:18:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 00:23:11.386044
- Title: WizardLM: Empowering Large Language Models to Follow Complex
Instructions
- Title(参考訳): wizardlm: 大きな言語モデルに複雑な命令に従う権限を与える
- Authors: Can Xu, Qingfeng Sun, Kai Zheng, Xiubo Geng, Pu Zhao, Jiazhan Feng,
Chongyang Tao, Daxin Jiang
- Abstract要約: ヒトの代わりにLSMを用いて、様々なレベルの複雑さを持つ大量の命令データを作成する方法を示す。
提案したEvol-Instructを使って、より複雑な命令を段階的に書き直す。
次に、生成されたすべての命令データを微調整LLaMAに混合する。
- 参考スコア(独自算出の注目度): 67.41048242052258
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training large language models (LLMs) with open-domain instruction following
data brings colossal success. However, manually creating such instruction data
is very time-consuming and labor-intensive. Moreover, humans may struggle to
produce high-complexity instructions. In this paper, we show an avenue for
creating large amounts of instruction data with varying levels of complexity
using LLM instead of humans. Starting with an initial set of instructions, we
use our proposed Evol-Instruct to rewrite them step by step into more complex
instructions. Then, we mix all generated instruction data to fine-tune LLaMA.
We call the resulting model WizardLM. Human evaluations on a
complexity-balanced test bed and Vicuna's testset show that instructions from
Evol-Instruct are superior to human-created ones. By analyzing the human
evaluation results of the high complexity part, we demonstrate that outputs
from our WizardLM are preferred to outputs from OpenAI ChatGPT. In GPT-4
automatic evaluation, WizardLM achieves more than 90\% capacity of ChatGPT on
17 out of 29 skills. Even though WizardLM still lags behind ChatGPT in some
aspects, our findings suggest that fine-tuning with AI-evolved instructions is
a promising direction for enhancing LLMs. Our code and data are public at
https://github.com/nlpxucan/WizardLM
- Abstract(参考訳): 大規模言語モデル(LLM)のトレーニングは、データに続くオープンドメイン命令で成功している。
しかし、手動でこのような命令データを作成するのは非常に時間がかかり、労力がかかる。
さらに、人間は複雑な指示を出すのに苦労する。
本稿では,人間の代わりにLSMを用いて,様々なレベルの複雑さを持つ大量の命令データを生成する方法を示す。
最初の命令セットから始めると、提案するevol-instructを使ってステップバイステップでより複雑な命令に書き直す。
次に、生成されたすべての命令データを微調整LLaMAに混合する。
結果のモデルをWizardLMと呼びます。
複雑性バランステストベッドとヴィクナのテストセット上の人間による評価は、Evol-Instructからの指示が人間が作ったものよりも優れていることを示している。
高複雑性部の人体評価結果を解析することにより,OpenAI ChatGPTの出力よりもWizardLMの出力の方が好ましいことを示す。
GPT-4の自動評価では、29スキル中17スキルにおいて、WizardLMは90パーセント以上のChatGPT能力を達成する。
WizardLMはまだChatGPTに遅れを取っているが、我々の研究結果は、AIに進化した命令による微調整がLLMの強化に有望な方向であることを示唆している。
私たちのコードとデータはhttps://github.com/nlpxucan/wizardlmで公開されている。
関連論文リスト
- Ensemble-Instruct: Generating Instruction-Tuning Data with a
Heterogeneous Mixture of LMs [23.38507910115345]
In-context Learning (ICL)技術は、少数の人間の監督だけで強力な会話エージェントを訓練することができる。
ここでは、より小さく(約10B-40Bパラメータ)、許容ライセンスを持つ言語モデルへのそのような手法の適用について検討する。
我々は,これらのサイズでは効果が低いセルフインストラクト手法を考案し,2つの主要なアイデアに基づいて新たなICL手法を提案する。
論文 参考訳(メタデータ) (2023-10-21T10:21:17Z) - Tuna: Instruction Tuning using Feedback from Large Language Models [74.04950416204551]
本稿では,新しいテキスト確率的ランキングとテキストコンテクスチュアルランキングを用いた命令調整型大規模言語モデルの微調整を提案する。
確率的ランク付けにより、教師のLCMから高品質で低品質なレスポンスの相対的なランク付けを継承することができる。
一方、文脈的ランキングを学習することで、より強いLLMの文脈的理解能力を用いて、モデルが独自の応答分布を洗練できる。
論文 参考訳(メタデータ) (2023-10-20T09:55:06Z) - Auto-Instruct: Automatic Instruction Generation and Ranking for
Black-Box Language Models [91.02730155418699]
大規模言語モデル(LLM)は、自然言語命令に従うことで幅広いタスクを実行できる。
LLMに提供される命令の質を自動改善する新しい手法であるAuto-Instructを導入する。
118のアウトオブドメインタスクの実験では、Auto-Instructは人間による命令と既存のLCM生成命令のベースラインを超越している。
論文 参考訳(メタデータ) (2023-10-19T19:52:55Z) - Ada-Instruct: Adapting Instruction Generators for Complex Reasoning [14.456571495691561]
微調整により開発した適応型命令生成器であるAda-Instructを紹介する。
Ada-Instructの有効性をさまざまなアプリケーションで実証的に検証した。
論文 参考訳(メタデータ) (2023-10-06T13:28:04Z) - WizardCoder: Empowering Code Large Language Models with Evol-Instruct [67.24653703564492]
WezardCoderは、複雑な命令の微調整でコードLLMをパワーアップする。
私たちのモデルは、他のすべてのオープンソースコードLLMをかなり上回ります。
論文 参考訳(メタデータ) (2023-06-14T15:18:48Z) - InstructZero: Efficient Instruction Optimization for Black-Box Large
Language Models [117.92988284226765]
大規模言語モデル(LLM)は命令従者であるが、異なる状況に最適な命令を見つけることは困難である。
我々は,オープンソースLLMに適用した低次元ソフトプロンプトを最適化し,ブラックボックスLLMの命令を生成する。
InstructZero は,様々な下流タスクにおいて SOTA 自動命令手法より優れていることを示す。
論文 参考訳(メタデータ) (2023-06-05T17:55:22Z) - LongForm: Effective Instruction Tuning with Reverse Instructions [74.14035528786997]
本稿では,逆命令によって生成されるLongForm-Cデータセットを紹介する。
逆命令を用いた人書きコーパスの例を LLM で生成する。
我々のモデルは、ストーリー/レシピ生成や長文質問応答といったタスクを指導することなく、10倍の言語モデルより優れています。
論文 参考訳(メタデータ) (2023-04-17T17:36:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。