論文の概要: In-Context Instruction Learning
- arxiv url: http://arxiv.org/abs/2302.14691v1
- Date: Tue, 28 Feb 2023 16:06:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-01 15:38:44.705958
- Title: In-Context Instruction Learning
- Title(参考訳): インコンテキストインストラクション学習
- Authors: Seonghyeon Ye, Hyeonbin Hwang, Sohee Yang, Hyeongu Yun, Yireun Kim,
Minjoon Seo
- Abstract要約: In-context instruction learning (ICIL) はゼロショットタスクの一般化性能を大幅に向上させる。
ICILは、すべてのタスクを評価するために単一の固定プロンプトを使用する。
最も強力な命令細調整ベースライン(text-davinci-003)もICILの9.3%の恩恵を受けている。
- 参考スコア(独自算出の注目度): 21.100328686633915
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Instruction learning of Large Language Models (LLMs) has enabled zero-shot
task generalization. However, instruction learning has been predominantly
approached as a fine-tuning problem, including instruction tuning and
reinforcement learning from human feedback, where LLMs are multi-task
fine-tuned on various tasks with instructions. In this paper, we present a
surprising finding that applying in-context learning to instruction learning,
referred to as In-Context Instruction Learning (ICIL), significantly improves
the zero-shot task generalization performance for both pretrained and
instruction-fine-tuned models. One of the core advantages of ICIL is that it
uses a single fixed prompt to evaluate all tasks, which is a concatenation of
cross-task demonstrations. In particular, we demonstrate that the most powerful
instruction-fine-tuned baseline (text-davinci-003) also benefits from ICIL by
9.3%, indicating that the effect of ICIL is complementary to instruction-based
fine-tuning.
- Abstract(参考訳): 大規模言語モデル(LLM)の指導学習により,ゼロショットタスクの一般化が可能になった。
しかし、命令学習は、命令のチューニングや人間からのフィードバックからの強化学習を含む微調整問題として、主にアプローチされてきた。
本稿では,in-context instruction learning (icil) と呼ばれるインコンテキスト学習を授業学習に適用することで,事前学習モデルとインストラクション調整モデルの両方において,ゼロショットタスクの一般化性能が大幅に向上することを示す。
ICILの主な利点の1つは、すべてのタスクを評価するために単一の固定プロンプトを使うことである。
特に、最も強力な命令ファインチューニングベースライン(text-davinci-003)もまたICILの9.3%の恩恵を受けており、ICILの効果は命令ベースの微調整と相補的であることを示す。
関連論文リスト
- Evaluating the Instruction-following Abilities of Language Models using Knowledge Tasks [4.945902994386117]
本稿では,タスク性能と命令追従機能の両方を検証し易い命令追従ベンチマークの開発に焦点をあてる。
既存の知識ベンチマークを適応させ、(a)知識タスクを正しく答える条件付きで強化するか、(b)複数の知識回答タスクにおいて候補オプションの空間を使用する。
大規模な命令調整 LLM でさえ、ゼロショット設定で単純な命令に従わないことがわかった。
論文 参考訳(メタデータ) (2024-10-16T19:07:37Z) - SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - LinkGPT: Teaching Large Language Models To Predict Missing Links [23.57145845001286]
大規模言語モデル(LLM)は、様々な言語やビジョンタスクにおいて有望な結果を示している。
近年、グラフベースのタスク、特にテキスト分散グラフ(TAG)にLLMを適用することへの関心が高まっている。
論文 参考訳(メタデータ) (2024-06-07T04:54:36Z) - Tuna: Instruction Tuning using Feedback from Large Language Models [74.04950416204551]
本稿では,新しいテキスト確率的ランキングとテキストコンテクスチュアルランキングを用いた命令調整型大規模言語モデルの微調整を提案する。
確率的ランク付けにより、教師のLCMから高品質で低品質なレスポンスの相対的なランク付けを継承することができる。
一方、文脈的ランキングを学習することで、より強いLLMの文脈的理解能力を用いて、モデルが独自の応答分布を洗練できる。
論文 参考訳(メタデータ) (2023-10-20T09:55:06Z) - Assessing the Reliability of Large Language Model Knowledge [78.38870272050106]
大規模言語モデル(LLM)は、知識探索タスクにおける高い性能のため、知識ベースとして扱われてきた。
LLMが実際に正しい答えを連続的に生成する能力をどのように評価するか。
LLMの信頼性を直接測定するための新しい指標であるMOdel kNowledge relIabiliTy score (MONITOR)を提案する。
論文 参考訳(メタデータ) (2023-10-15T12:40:30Z) - SatLM: Satisfiability-Aided Language Models Using Declarative Prompting [68.40726892904286]
本研究では,大規模言語モデル (LLM) の推論能力を向上させるために,新しい満足度支援言語モデリング (SatLM) 手法を提案する。
我々はLLMを用いて命令型プログラムではなく宣言型タスク仕様を生成し、既製の自動定理証明器を利用して最終解を導出する。
我々はSATLMを8つの異なるデータセット上で評価し、命令パラダイムにおいてプログラム支援されたLMよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-05-16T17:55:51Z) - Guiding Large Language Models via Directional Stimulus Prompting [114.84930073977672]
我々は,特定の所望の出力に対して,ブラックボックス大言語モデル(LLM)を導くための新しいフレームワークであるDirectional Stimulus Promptingを紹介する。
LLMを直接調整するのではなく、小さな調整可能なポリシーモデルを用いて各入力インスタンスに対して補助的な指向性刺激プロンプトを生成する。
論文 参考訳(メタデータ) (2023-02-22T17:44:15Z) - Towards Unified Prompt Tuning for Few-shot Text Classification [47.71344780587704]
We present the Unified Prompt Tuning (UPT) framework that to improve few-shot text classification for BERT-style model。
UPTでは、異なるNLPタスク間での協調学習のために、新しいパラダイムであるPrompt-Options-Verbalizerを提案する。
また, PLMの一般化能力を向上させるために, 知識向上型選択マスケッド言語モデリングという自己教師型タスクを設計する。
論文 参考訳(メタデータ) (2022-05-11T07:40:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。