論文の概要: Ada-Instruct: Adapting Instruction Generators for Complex Reasoning
- arxiv url: http://arxiv.org/abs/2310.04484v3
- Date: Thu, 03 Oct 2024 15:20:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-04 17:53:06.075041
- Title: Ada-Instruct: Adapting Instruction Generators for Complex Reasoning
- Title(参考訳): Ada-Instruct:複雑な推論のためのインストラクションジェネレータの適応
- Authors: Wanyun Cui, Qianle Wang,
- Abstract要約: 微調整により開発した適応型命令生成器であるAda-Instructを紹介する。
Ada-Instructの有効性をさまざまなアプリケーションで実証的に検証した。
- 参考スコア(独自算出の注目度): 14.456571495691561
- License:
- Abstract: Instructions augmentation is a crucial step for unleashing the full potential of large language models (LLMs) in downstream tasks. Existing Self-Instruct methods primarily simulate new instructions from a few initial instructions with in-context learning. However, our study identifies a critical flaw in this approach: even with GPT4o, Self-Instruct cannot generate complex instructions of length $\ge 100$, which is necessary in complex tasks such as code completion. To address this issue, our key insight is that fine-tuning open source LLMs with only ten examples can produce complex instructions that maintain distributional consistency for complex reasoning tasks. We introduce Ada-Instruct, an adaptive instruction generator developed through fine-tuning. We empirically validated Ada-Instruct's efficacy across different applications. The results highlight Ada-Instruct's capacity to generate long, intricate, and distributionally consistent instructions.
- Abstract(参考訳): インストラクションの強化は、下流タスクにおける大きな言語モデル(LLM)の潜在能力を解放するための重要なステップである。
既存のSelf-Instructメソッドは主に、コンテキスト内学習によるいくつかの初期命令から新しい命令をシミュレートする。
しかし,本研究では,GPT4oであっても,コード補完などの複雑なタスクにおいて必要となる,長さ$$\ge 100$の複雑な命令を生成することはできない。
この問題に対処するために、我々の重要な洞察は、10例のオープンソース LLM を微調整することで、複雑な推論タスクに対して分布整合性を維持する複雑な命令を作成できるということである。
微調整により開発した適応型命令生成器であるAda-Instructを紹介する。
Ada-Instructの有効性をさまざまなアプリケーションで実証的に検証した。
結果は、Ada-Instructが長く、複雑で、分散的に一貫した命令を生成する能力を強調している。
関連論文リスト
- Evolutionary Contrastive Distillation for Language Model Alignment [35.94171633370035]
進化的コントラスト蒸留(ECD)は高品質な合成嗜好データを生成する新しい方法である。
提案手法は,現在のSOTA 7Bモデルの複雑な命令追従性能を超える7Bモデルを生成する。
論文 参考訳(メタデータ) (2024-10-10T01:04:03Z) - TaCIE: Enhancing Instruction Comprehension in Large Language Models through Task-Centred Instruction Evolution [27.949846287419998]
TaCIEは、単に進化したシード命令から、よりダイナミックで包括的な要素の組み合わせへと、命令の進化を再定義する。
複数の領域にまたがってTaCIEを適用することで、これらの進化した命令で微調整されたLLMは、従来の手法で調整された命令よりも大幅に性能が向上した。
論文 参考訳(メタデータ) (2024-09-18T10:06:28Z) - Controllable Navigation Instruction Generation with Chain of Thought Prompting [74.34604350917273]
本稿では,C-インストラクタを提案する。C-インストラクタは,スタイル制御およびコンテンツ制御可能な命令生成のために,チェーン・オブ・シンクタスタイルのプロンプトを利用する。
C-インストラクタは生成した命令をより追従しやすくし、ランドマークオブジェクトの操作に対する制御性を高める。
論文 参考訳(メタデータ) (2024-07-10T07:37:20Z) - One Prompt is not Enough: Automated Construction of a Mixture-of-Expert Prompts [110.94724216491753]
大規模言語モデル(LLM)は、言語命令やコンテキスト内デモによって、強力な一般化能力を示す。
命令設計を自動化するために様々な手法が検討されてきたが、探索されたプロンプトを1つの命令に制限した。
我々はMixture-of-Expertパラダイムを採用し、問題空間を一連のサブリージョンに分割する。
地域ごとに専門的な専門家を構築するための2段階のプロセスが開発されている。
専門家1人当たりの命令の地域ベースの共同探索は、それに割り当てられたデモを補完し、相乗効果をもたらす。
論文 参考訳(メタデータ) (2024-06-28T23:05:08Z) - Chain-of-Instructions: Compositional Instruction Tuning on Large Language Models [15.444719480373001]
チェーン・オブ・インストラクション(CoI)と呼ばれる新しい構成命令の概念を提案する。
従来の単一命令タスクの解法とは異なり,提案手法では各サブタスクを段階的に解き,最終的な解答に到達するまで解き明かす。
CoIチューニングは、複数のサブタスクからなる命令と、多言語要約のような目に見えない複合タスクを扱うモデルの能力を改善する。
論文 参考訳(メタデータ) (2024-02-18T10:10:40Z) - Ensemble-Instruct: Generating Instruction-Tuning Data with a
Heterogeneous Mixture of LMs [23.38507910115345]
In-context Learning (ICL)技術は、少数の人間の監督だけで強力な会話エージェントを訓練することができる。
ここでは、より小さく(約10B-40Bパラメータ)、許容ライセンスを持つ言語モデルへのそのような手法の適用について検討する。
我々は,これらのサイズでは効果が低いセルフインストラクト手法を考案し,2つの主要なアイデアに基づいて新たなICL手法を提案する。
論文 参考訳(メタデータ) (2023-10-21T10:21:17Z) - From Language Modeling to Instruction Following: Understanding the Behavior Shift in LLMs after Instruction Tuning [63.63840740526497]
そこで本研究では,本質的な変化に着目した事前学習モデルの調整方法について検討する。
次に、事前訓練されたモデルと命令調整されたモデルから導かれた説明を比較することで、命令チューニングの影響について研究する。
この結果から,指導指導の3つの重要な影響が明らかになった。
論文 参考訳(メタデータ) (2023-09-30T21:16:05Z) - Can Large Language Models Understand Real-World Complex Instructions? [54.86632921036983]
大型言語モデル(LLM)は人間の指示を理解することができるが、複雑な命令には耐えられない。
既存のベンチマークでは、LLMが複雑な命令を理解する能力を評価するには不十分である。
複雑な命令を体系的に追従するLSMの能力を評価するためのベンチマークであるCellOを提案する。
論文 参考訳(メタデータ) (2023-09-17T04:18:39Z) - Enhancing Large Language Models Against Inductive Instructions with
Dual-critique Prompting [55.15697111170836]
本稿では,大規模言語モデル(LLM)のテクスト誘導的指示に対する行動を明らかにするとともに,その真しさと有用性を高める。
広範囲な人的・自動的な評価の結果,帰納的命令処理において LLM に共通する脆弱性が発見された。
異なる帰納的スタイルがモデルに同じエラーを識別する能力に影響を及ぼし、基礎となる仮定の複雑さがモデルの性能にも影響を及ぼす。
論文 参考訳(メタデータ) (2023-05-23T06:38:20Z) - WizardLM: Empowering Large Language Models to Follow Complex
Instructions [67.41048242052258]
ヒトの代わりにLSMを用いて、様々なレベルの複雑さを持つ大量の命令データを作成する方法を示す。
提案したEvol-Instructを使って、より複雑な命令を段階的に書き直す。
次に、生成されたすべての命令データを微調整LLaMAに混合する。
論文 参考訳(メタデータ) (2023-04-24T16:31:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。