論文の概要: Active Example Selection for In-Context Learning
- arxiv url: http://arxiv.org/abs/2211.04486v1
- Date: Tue, 8 Nov 2022 19:00:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 16:03:32.148358
- Title: Active Example Selection for In-Context Learning
- Title(参考訳): コンテキスト内学習のためのアクティブサンプル選択
- Authors: Yiming Zhang, Shi Feng and Chenhao Tan
- Abstract要約: 大規模言語モデルは、コンテキスト内学習によって様々なタスクを実行する能力を示す。
そこで本研究では,実例においてコンテキスト内学習性能が極めて不安定であることを示す。
実演例を選択するための一般化可能なポリシーを特定するための強化学習アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 26.942655002252568
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With a handful of demonstration examples, large-scale language models show
strong capability to perform various tasks by in-context learning from these
examples, without any fine-tuning. We demonstrate that in-context learning
performance can be highly unstable across samples of examples, indicating the
idiosyncrasies of how language models acquire information. We formulate example
selection for in-context learning as a sequential decision problem, and propose
a reinforcement learning algorithm for identifying generalizable policies to
select demonstration examples. For GPT-2, our learned policies demonstrate
strong abilities of generalizing to unseen tasks in training, with a $5.8\%$
improvement on average. Examples selected from our learned policies can even
achieve a small improvement on GPT-3 Ada. However, the improvement diminishes
on larger GPT-3 models, suggesting emerging capabilities of large language
models.
- Abstract(参考訳): 少数の実演例では、大規模な言語モデルは、これらの例からコンテキスト内で学習することで、微調整をすることなく、様々なタスクを実行する能力を示す。
文脈内学習のパフォーマンスは、サンプルのサンプル間で非常に不安定であり、言語モデルが情報を取得する方法の特異性を示している。
逐次決定問題としてインコンテキスト学習の例選択を定式化し、実例を選択するための一般化可能なポリシーを特定するための強化学習アルゴリズムを提案する。
GPT-2の場合、学習方針は、トレーニングの見つからないタスクを一般化する強力な能力を示し、平均5.8 %$改善した。
学習方針から選択した例は, GPT-3 Ada のわずかな改善も達成できる。
しかし、この改善はより大きなgpt-3モデルで減少し、大きな言語モデルの能力の出現を示唆する。
関連論文リスト
- Learning to Retrieve In-Context Examples for Large Language Models [69.9707552694766]
大規模言語モデル(LLM)は、文脈内で学習する能力を示している。
文脈内学習の有効性は、選択した例の品質に大きく依存する。
高品質なインコンテキストの例を識別可能な高密度検索を反復的に学習する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-14T05:23:08Z) - In-Context Demonstration Selection with Cross Entropy Difference [95.21947716378641]
大規模言語モデル(LLM)は、ゼロショットタスクのパフォーマンスを改善するためにコンテキスト内デモを使用することができる。
テキスト内デモを選択するためのクロスエントロピー差分法(CED)を提案する。
論文 参考訳(メタデータ) (2023-05-24T05:04:00Z) - RetICL: Sequential Retrieval of In-Context Examples with Reinforcement Learning [53.52699766206808]
In-Context Learning (RetICL) のための検索式を提案する。
RetICLは数学用語の問題解決と科学的質問応答のタスクに基づいて評価し,一貫した性能や一致,学習可能なベースラインを示す。
論文 参考訳(メタデータ) (2023-05-23T20:15:56Z) - Active Learning Principles for In-Context Learning with Large Language
Models [65.09970281795769]
本稿では,アクティブ・ラーニング・アルゴリズムが,文脈内学習における効果的な実演選択手法としてどのように機能するかを検討する。
ALによる文脈内サンプル選択は,不確実性の低い高品質な事例を優先し,試験例と類似性を有することを示す。
論文 参考訳(メタデータ) (2023-05-23T17:16:04Z) - In-Context Probing: Toward Building Robust Classifiers via Probing Large
Language Models [5.5089506884366735]
本稿では, In-Context Probing (ICP) という代替手法を提案する。
インコンテキスト学習と同様に、入力の表現を命令で文脈化するが、出力予測を復号する代わりに、ラベルを予測するために文脈化表現を探索する。
我々はICPがファインタニングよりも優れていることを示し、より小さなモデルの上に分類器を構築するのに特に有用であることを示した。
論文 参考訳(メタデータ) (2023-05-23T15:43:04Z) - What Makes Good In-context Demonstrations for Code Intelligence Tasks
with LLMs? [60.668318972782295]
大規模言語モデルは、文脈内学習(ICL)の能力を示している。
ICLはタスク命令といくつかの例をデモとして使用し、次に予測を行うために言語モデルにデモを入力します。
コードに関連するタスクに対して,優れたデモを構築する方法について,体系的に検討することが重要である。
論文 参考訳(メタデータ) (2023-04-15T15:13:58Z) - Fairness-guided Few-shot Prompting for Large Language Models [93.05624064699965]
インコンテキスト学習は、トレーニング例、例えば順、プロンプトフォーマットのバリエーションによって、高い不安定性に悩まされる可能性がある。
ラベルや属性に対する固定的なプロンプトの予測バイアスを評価するための指標を導入する。
そこで本研究では,テキスト内学習の性能向上のための最寄りのプロンプトを特定するための,欲求探索に基づく新しい探索手法を提案する。
論文 参考訳(メタデータ) (2023-03-23T12:28:25Z) - Improving Few-Shot Performance of Language Models via Nearest Neighbor
Calibration [12.334422701057674]
In-context Learning のための近辺校正フレームワークを提案する。
インコンテキスト学習パラダイムは、トレーニングインスタンスを推論する際に誤ったラベルを生成するという現象にインスパイアされている。
テキスト分類タスクの多種多様な実験により,本手法はテキスト内学習を大幅に改善することが示された。
論文 参考訳(メタデータ) (2022-12-05T12:49:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。