論文の概要: GrIPS: Gradient-free, Edit-based Instruction Search for Prompting Large
Language Models
- arxiv url: http://arxiv.org/abs/2203.07281v1
- Date: Mon, 14 Mar 2022 16:54:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-15 13:03:40.551414
- Title: GrIPS: Gradient-free, Edit-based Instruction Search for Prompting Large
Language Models
- Title(参考訳): grips: 大きな言語モデルを促すためのグラデーションフリーで編集ベースの命令検索
- Authors: Archiki Prasad, Peter Hase, Xiang Zhou, Mohit Bansal
- Abstract要約: 本研究では,大規模言語モデルのタスク命令を改善するために,勾配のない編集に基づく探索手法を提案する。
GrIPSは人間用に設計された命令を受け取り、改良されたプロンプトを自動で返します。
インストラクションのみのプロンプトとkショットの例+インストラクションプロンプトの改善が見られます。
- 参考スコア(独自算出の注目度): 80.03815493269522
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Providing natural language instructions in prompts is a useful new paradigm
for improving task performance of large language models in a zero-shot setting.
Recent work has aimed to improve such prompts via manual rewriting or
gradient-based tuning. However, manual rewriting is time-consuming and requires
subjective interpretation, while gradient-based tuning can be extremely
computationally demanding for large models and requires full access to model
weights, which may not be available for API-based models. In this work, we
introduce Gradient-free Instructional Prompt Search (GrIPS), a gradient-free,
edit-based search approach for improving task instructions for large language
models. GrIPS takes in instructions designed for humans and automatically
returns an improved, edited prompt, while allowing for API-based tuning. The
instructions in our search are iteratively edited using four operations
(delete, add, swap, paraphrase) on text at the phrase-level. With InstructGPT
models, GrIPS improves the average task performance by up to 4.30 percentage
points on eight classification tasks from the Natural-Instructions dataset. We
see improvements for both instruction-only prompts and for k-shot
example+instruction prompts. Notably, GrIPS outperforms manual rewriting
following the guidelines in Mishra et al. (2022) and also outperforms purely
example-based prompts while controlling for the available compute and data
budget. Lastly, we provide qualitative analysis of the edited instructions
across several scales of GPT models. Our code is available at:
https://github.com/archiki/GrIPS
- Abstract(参考訳): プロンプトでの自然言語命令の提供は、ゼロショット設定で大規模言語モデルのタスクパフォーマンスを改善するための有用な新しいパラダイムである。
最近の作業は、手動の書き換えやグラデーションベースのチューニングによって、このようなプロンプトを改善することを目的としている。
しかし、手動の書き直しには時間がかかり、主観的な解釈を必要とする一方で、勾配に基づくチューニングは大規模モデルに対して非常に計算的に要求され、APIベースのモデルでは利用できないモデルウェイトへの完全なアクセスを必要とする。
本研究では,大規模言語モデルのタスク命令を改善するために,グラデーションフリーな編集ベースの検索手法であるgrips(gradient-free instructional prompt search)を提案する。
GrIPSは人間用に設計された命令を受け取り、APIベースのチューニングを可能にしながら、改善された編集されたプロンプトを自動的に返します。
検索中の命令は、フレーズレベルでテキスト上の4つの操作(delete, add, swap, paraphrase)を使用して反復的に編集されます。
instructgptモデルでは、自然命令データセットから8つの分類タスクで平均タスクパフォーマンスを最大4.30ポイント改善する。
命令のみのプロンプトとkショットのサンプル+インストラクションプロンプトの両方の改善が見られます。
特に、GrIPSはMishra et al. (2022)のガイドラインに従って手書きの書き直しを上回り、利用可能な計算とデータ予算を制御しながら純粋にサンプルベースのプロンプトを上回ります。
最後に,複数スケールのGPTモデルで編集した命令の質的解析を行う。
私たちのコードは、https://github.com/archiki/GrIPSで利用可能です。
関連論文リスト
- Phased Instruction Fine-Tuning for Large Language Models [12.037895935630882]
Phased IFT(Phased Instruction Fine-Tuning)を提案する。
GPT-4を用いて命令の難易度を評価し、命令データを難易度の高いサブセットに分割し、これらのサブセット上でモデルを逐次訓練する。
アルパカデータを用いたLlama-2 7B/13B/70B、Llama3 8/70B、Mistral-7Bモデルによる実験では、フェーズドIFTは1オフIFTよりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-06-01T04:25:26Z) - From Language Modeling to Instruction Following: Understanding the Behavior Shift in LLMs after Instruction Tuning [63.63840740526497]
そこで本研究では,本質的な変化に着目した事前学習モデルの調整方法について検討する。
次に、事前訓練されたモデルと命令調整されたモデルから導かれた説明を比較することで、命令チューニングの影響について研究する。
この結果から,指導指導の3つの重要な影響が明らかになった。
論文 参考訳(メタデータ) (2023-09-30T21:16:05Z) - Evaluating the Zero-shot Robustness of Instruction-tuned Language Models [23.488398944358643]
新規な(観測されていない)が適切な命令表現を用いることで、モデル性能は一貫して低下することがわかった。
本稿では,ソフトプロンプトの埋め込みパラメータを導入することで,この問題を軽減するための簡単な手法を提案する。
本手法は命令調整モデルのロバスト性を常に改善することを示す。
論文 参考訳(メタデータ) (2023-06-20T03:48:51Z) - Automatic Prompt Optimization with "Gradient Descent" and Beam Search [64.08364384823645]
大きな言語モデル(LLM)は汎用エージェントとして優れたパフォーマンスを示しているが、その能力はプロンプトに大きく依存している。
この問題に対する単純で非パラメトリックな解である自動プロンプト最適化(APO)を提案する。
APOはデータのミニバッチを使用して、現在のプロンプトを批判する自然言語「段階的」を形成する。
次に、勾配の反対の意味方向のプロンプトを編集することで、勾配をプロンプトに「伝播」する。
論文 参考訳(メタデータ) (2023-05-04T15:15:22Z) - Gradient-Regulated Meta-Prompt Learning for Generalizable
Vision-Language Models [137.74524357614285]
グラディエント・レグルアテッドメタプロンプト学習フレームワークについて紹介する。
パラメーターとデータ -- 効率的な方法で下流タスクにモデルを適応させるのに役立つ。
GRAMはモデルに依存しない方法で様々なプロンプトチューニング手法に容易に組み込むことができる。
論文 参考訳(メタデータ) (2023-03-12T05:03:37Z) - Finetuned Language Models Are Zero-Shot Learners [67.70352207685558]
命令チューニングは、目に見えないタスクにおけるゼロショット性能を向上することを示す。
137Bパラメータを事前訓練した言語モデルと、自然言語の命令テンプレートを介して言語化された60以上のNLPタスクにチューニングする。
FLANと呼ばれるこの命令調整モデルについて、未知のタスクタイプで評価する。
論文 参考訳(メタデータ) (2021-09-03T17:55:52Z) - Prefix-Tuning: Optimizing Continuous Prompts for Generation [85.6357778621526]
微調整は、大規模な事前訓練された言語モデルを使用して下流のタスクを実行する事実上の方法です。
自然言語生成タスクの微調整に代わる軽量なプレフィックスチューニングを提案する。
パラメータの0.1%しか学習しないことで、プレフィックスチューニングは完全なデータ設定で同等のパフォーマンスを得る。
論文 参考訳(メタデータ) (2021-01-01T08:00:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。