論文の概要: GrIPS: Gradient-free, Edit-based Instruction Search for Prompting Large
Language Models
- arxiv url: http://arxiv.org/abs/2203.07281v2
- Date: Wed, 26 Apr 2023 19:20:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-28 17:32:12.829321
- Title: GrIPS: Gradient-free, Edit-based Instruction Search for Prompting Large
Language Models
- Title(参考訳): grips: 大きな言語モデルを促すためのグラデーションフリーで編集ベースの命令検索
- Authors: Archiki Prasad, Peter Hase, Xiang Zhou, Mohit Bansal
- Abstract要約: GrIPSは、大規模言語モデルのタスク命令を改善するための、勾配のない編集ベースの検索手法である。
InstructGPTモデルでは、GrIPSは8つの分類タスクの平均タスク性能を最大4.30ポイント改善する。
編集は命令を単純化し、時には不整合化しますが、それでも精度は向上します。
- 参考スコア(独自算出の注目度): 80.03815493269522
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Providing natural language instructions in prompts is a useful new paradigm
for improving task performance of large language models in a zero-shot setting.
Recent work has aimed to improve such prompts via manual rewriting or
gradient-based tuning. However, manual rewriting is time-consuming and requires
subjective interpretation, while gradient-based tuning can be extremely
computationally demanding for large models and may not be feasible for
API-based models. In this work, we introduce Gradient-free Instructional Prompt
Search (GrIPS), a gradient-free, edit-based search approach for improving task
instructions for large language models. GrIPS takes in instructions designed
for humans and automatically returns an improved, edited prompt, while allowing
for API-based tuning. With InstructGPT models, GrIPS improves the average task
performance by up to 4.30 percentage points on eight classification tasks from
the Natural Instructions dataset (with similar improvements for OPT, BLOOM, and
FLAN-T5). We see improvements for both instruction-only prompts and instruction
+ k-shot examples prompts. Notably, GrIPS outperforms manual rewriting and
purely example-based prompts while controlling for the available compute and
data budget. Further, performance of GrIPS is comparable to select
gradient-based tuning approaches. Qualitatively, we show our edits can simplify
instructions and at times make them incoherent but nonetheless improve
accuracy. Our code is available at: https://github.com/archiki/GrIPS
- Abstract(参考訳): プロンプトでの自然言語命令の提供は、ゼロショット設定で大規模言語モデルのタスクパフォーマンスを改善するための有用な新しいパラダイムである。
最近の作業は、手動の書き換えやグラデーションベースのチューニングによって、このようなプロンプトを改善することを目的としている。
しかし、手作業による書き直しは時間を要するため主観的な解釈が必要であり、勾配ベースのチューニングは大きなモデルでは極めて計算量が必要であり、apiベースのモデルでは実現不可能である。
本研究では,大規模言語モデルのタスク命令を改善するために,グラデーションフリーな編集ベースの検索手法であるgrips(gradient-free instructional prompt search)を提案する。
GrIPSは人間用に設計された命令を受け取り、APIベースのチューニングを可能にしながら、改善された編集されたプロンプトを自動的に返します。
InstructGPTモデルにより、GrIPSはNatural Instructionsデータセット(OPT、BLOOM、FLAN-T5)から8つの分類タスクに対して、平均タスク性能を最大4.30ポイント改善する。
命令のみのプロンプトと命令+kショットの例プロンプトの改善が見られます。
特にGrIPSは、利用可能な計算とデータ予算を管理しながら、手書きの書き直しと純粋にサンプルベースのプロンプトより優れている。
さらに、GrIPSの性能は、特定の勾配に基づくチューニング手法に匹敵する。
質的には、編集が命令をシンプルにし、時には一貫性を欠くが正確性は向上することを示している。
私たちのコードは、https://github.com/archiki/GrIPSで利用可能です。
関連論文リスト
- Phased Instruction Fine-Tuning for Large Language Models [12.037895935630882]
Phased IFT(Phased Instruction Fine-Tuning)を提案する。
GPT-4を用いて命令の難易度を評価し、命令データを難易度の高いサブセットに分割し、これらのサブセット上でモデルを逐次訓練する。
アルパカデータを用いたLlama-2 7B/13B/70B、Llama3 8/70B、Mistral-7Bモデルによる実験では、フェーズドIFTは1オフIFTよりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-06-01T04:25:26Z) - From Language Modeling to Instruction Following: Understanding the Behavior Shift in LLMs after Instruction Tuning [63.63840740526497]
そこで本研究では,本質的な変化に着目した事前学習モデルの調整方法について検討する。
次に、事前訓練されたモデルと命令調整されたモデルから導かれた説明を比較することで、命令チューニングの影響について研究する。
この結果から,指導指導の3つの重要な影響が明らかになった。
論文 参考訳(メタデータ) (2023-09-30T21:16:05Z) - Evaluating the Zero-shot Robustness of Instruction-tuned Language Models [23.488398944358643]
新規な(観測されていない)が適切な命令表現を用いることで、モデル性能は一貫して低下することがわかった。
本稿では,ソフトプロンプトの埋め込みパラメータを導入することで,この問題を軽減するための簡単な手法を提案する。
本手法は命令調整モデルのロバスト性を常に改善することを示す。
論文 参考訳(メタデータ) (2023-06-20T03:48:51Z) - Automatic Prompt Optimization with "Gradient Descent" and Beam Search [64.08364384823645]
大きな言語モデル(LLM)は汎用エージェントとして優れたパフォーマンスを示しているが、その能力はプロンプトに大きく依存している。
この問題に対する単純で非パラメトリックな解である自動プロンプト最適化(APO)を提案する。
APOはデータのミニバッチを使用して、現在のプロンプトを批判する自然言語「段階的」を形成する。
次に、勾配の反対の意味方向のプロンプトを編集することで、勾配をプロンプトに「伝播」する。
論文 参考訳(メタデータ) (2023-05-04T15:15:22Z) - Gradient-Regulated Meta-Prompt Learning for Generalizable
Vision-Language Models [137.74524357614285]
グラディエント・レグルアテッドメタプロンプト学習フレームワークについて紹介する。
パラメーターとデータ -- 効率的な方法で下流タスクにモデルを適応させるのに役立つ。
GRAMはモデルに依存しない方法で様々なプロンプトチューニング手法に容易に組み込むことができる。
論文 参考訳(メタデータ) (2023-03-12T05:03:37Z) - Finetuned Language Models Are Zero-Shot Learners [67.70352207685558]
命令チューニングは、目に見えないタスクにおけるゼロショット性能を向上することを示す。
137Bパラメータを事前訓練した言語モデルと、自然言語の命令テンプレートを介して言語化された60以上のNLPタスクにチューニングする。
FLANと呼ばれるこの命令調整モデルについて、未知のタスクタイプで評価する。
論文 参考訳(メタデータ) (2021-09-03T17:55:52Z) - Prefix-Tuning: Optimizing Continuous Prompts for Generation [85.6357778621526]
微調整は、大規模な事前訓練された言語モデルを使用して下流のタスクを実行する事実上の方法です。
自然言語生成タスクの微調整に代わる軽量なプレフィックスチューニングを提案する。
パラメータの0.1%しか学習しないことで、プレフィックスチューニングは完全なデータ設定で同等のパフォーマンスを得る。
論文 参考訳(メタデータ) (2021-01-01T08:00:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。