論文の概要: Ada-Instruct: Adapting Instruction Generators for Complex Reasoning
- arxiv url: http://arxiv.org/abs/2310.04484v2
- Date: Tue, 10 Oct 2023 07:17:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 18:10:18.864412
- Title: Ada-Instruct: Adapting Instruction Generators for Complex Reasoning
- Title(参考訳): Ada-Instruct:複雑な推論のためのインストラクションジェネレータの適応
- Authors: Wanyun Cui, Qianle Wang
- Abstract要約: Ada-Instruct は,オープンソース LLM の微調整によって開発された適応型命令生成器である。
我々はAda-Instructの有効性を、コード補完、数学的推論、常識推論を含む様々なアプリケーションで実証的に検証した。
- 参考スコア(独自算出の注目度): 17.07852413707166
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating diverse and sophisticated instructions for downstream tasks by
Large Language Models (LLMs) is pivotal for advancing the effect. Current
approaches leverage closed-source LLMs, employing in-context prompting for
instruction generation. However, in this paper, we found that in-context
prompting cannot generate complex instructions with length $\ge 100$ for tasks
like code completion.
To solve this problem, we introduce Ada-Instruct, an adaptive instruction
generator developed by fine-tuning open-source LLMs. Our pivotal finding
illustrates that fine-tuning open-source LLMs with a mere ten samples generates
long instructions that maintain distributional consistency for complex
reasoning tasks. We empirically validated Ada-Instruct's efficacy across
different applications, including code completion, mathematical reasoning, and
commonsense reasoning. The results underscore Ada-Instruct's superiority,
evidencing its improvements over its base models, current self-instruct
methods, and other state-of-the-art models.
- Abstract(参考訳): 大規模言語モデル(LLM)による下流タスクのための多種多様な洗練された命令を生成することは、その効果を推し進める上で重要である。
現在のアプローチでは、命令生成にコンテキスト内プロンプトを用いることで、クローズドソースのLLMを活用している。
しかし,本稿では,コード補完のようなタスクに対して,コンテクスト内プロンプトが$\ge 100$の複雑な命令を生成できないことがわかった。
そこで本研究では,オープンソースのllmを微調整した適応型命令生成器ada-instructを提案する。
我々の中心的な発見は、単純な10個のサンプルで微調整されたオープンソース LLM が複雑な推論タスクの分散一貫性を維持するための長い命令を生成することを示している。
我々は ada-instruct の有効性をコード補完,数学的推論,コモンセンス推論など,さまざまなアプリケーションで実証的に検証した。
その結果、ada-instructの優位性を強調し、基本モデル、現在の自己破壊メソッド、その他の最先端モデルに対する改善を実証した。
関連論文リスト
- Evolutionary Contrastive Distillation for Language Model Alignment [35.94171633370035]
進化的コントラスト蒸留(ECD)は高品質な合成嗜好データを生成する新しい方法である。
提案手法は,現在のSOTA 7Bモデルの複雑な命令追従性能を超える7Bモデルを生成する。
論文 参考訳(メタデータ) (2024-10-10T01:04:03Z) - TaCIE: Enhancing Instruction Comprehension in Large Language Models through Task-Centred Instruction Evolution [27.949846287419998]
TaCIEは、単に進化したシード命令から、よりダイナミックで包括的な要素の組み合わせへと、命令の進化を再定義する。
複数の領域にまたがってTaCIEを適用することで、これらの進化した命令で微調整されたLLMは、従来の手法で調整された命令よりも大幅に性能が向上した。
論文 参考訳(メタデータ) (2024-09-18T10:06:28Z) - Controllable Navigation Instruction Generation with Chain of Thought Prompting [74.34604350917273]
本稿では,C-インストラクタを提案する。C-インストラクタは,スタイル制御およびコンテンツ制御可能な命令生成のために,チェーン・オブ・シンクタスタイルのプロンプトを利用する。
C-インストラクタは生成した命令をより追従しやすくし、ランドマークオブジェクトの操作に対する制御性を高める。
論文 参考訳(メタデータ) (2024-07-10T07:37:20Z) - One Prompt is not Enough: Automated Construction of a Mixture-of-Expert Prompts [110.94724216491753]
大規模言語モデル(LLM)は、言語命令やコンテキスト内デモによって、強力な一般化能力を示す。
命令設計を自動化するために様々な手法が検討されてきたが、探索されたプロンプトを1つの命令に制限した。
我々はMixture-of-Expertパラダイムを採用し、問題空間を一連のサブリージョンに分割する。
地域ごとに専門的な専門家を構築するための2段階のプロセスが開発されている。
専門家1人当たりの命令の地域ベースの共同探索は、それに割り当てられたデモを補完し、相乗効果をもたらす。
論文 参考訳(メタデータ) (2024-06-28T23:05:08Z) - Chain-of-Instructions: Compositional Instruction Tuning on Large Language Models [15.444719480373001]
チェーン・オブ・インストラクション(CoI)と呼ばれる新しい構成命令の概念を提案する。
従来の単一命令タスクの解法とは異なり,提案手法では各サブタスクを段階的に解き,最終的な解答に到達するまで解き明かす。
CoIチューニングは、複数のサブタスクからなる命令と、多言語要約のような目に見えない複合タスクを扱うモデルの能力を改善する。
論文 参考訳(メタデータ) (2024-02-18T10:10:40Z) - Ensemble-Instruct: Generating Instruction-Tuning Data with a
Heterogeneous Mixture of LMs [23.38507910115345]
In-context Learning (ICL)技術は、少数の人間の監督だけで強力な会話エージェントを訓練することができる。
ここでは、より小さく(約10B-40Bパラメータ)、許容ライセンスを持つ言語モデルへのそのような手法の適用について検討する。
我々は,これらのサイズでは効果が低いセルフインストラクト手法を考案し,2つの主要なアイデアに基づいて新たなICL手法を提案する。
論文 参考訳(メタデータ) (2023-10-21T10:21:17Z) - From Language Modeling to Instruction Following: Understanding the Behavior Shift in LLMs after Instruction Tuning [63.63840740526497]
そこで本研究では,本質的な変化に着目した事前学習モデルの調整方法について検討する。
次に、事前訓練されたモデルと命令調整されたモデルから導かれた説明を比較することで、命令チューニングの影響について研究する。
この結果から,指導指導の3つの重要な影響が明らかになった。
論文 参考訳(メタデータ) (2023-09-30T21:16:05Z) - Can Large Language Models Understand Real-World Complex Instructions? [54.86632921036983]
大型言語モデル(LLM)は人間の指示を理解することができるが、複雑な命令には耐えられない。
既存のベンチマークでは、LLMが複雑な命令を理解する能力を評価するには不十分である。
複雑な命令を体系的に追従するLSMの能力を評価するためのベンチマークであるCellOを提案する。
論文 参考訳(メタデータ) (2023-09-17T04:18:39Z) - Enhancing Large Language Models Against Inductive Instructions with
Dual-critique Prompting [55.15697111170836]
本稿では,大規模言語モデル(LLM)のテクスト誘導的指示に対する行動を明らかにするとともに,その真しさと有用性を高める。
広範囲な人的・自動的な評価の結果,帰納的命令処理において LLM に共通する脆弱性が発見された。
異なる帰納的スタイルがモデルに同じエラーを識別する能力に影響を及ぼし、基礎となる仮定の複雑さがモデルの性能にも影響を及ぼす。
論文 参考訳(メタデータ) (2023-05-23T06:38:20Z) - WizardLM: Empowering Large Language Models to Follow Complex
Instructions [67.41048242052258]
ヒトの代わりにLSMを用いて、様々なレベルの複雑さを持つ大量の命令データを作成する方法を示す。
提案したEvol-Instructを使って、より複雑な命令を段階的に書き直す。
次に、生成されたすべての命令データを微調整LLaMAに混合する。
論文 参考訳(メタデータ) (2023-04-24T16:31:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。