論文の概要: GistScore: Learning Better Representations for In-Context Example
Selection with Gist Bottlenecks
- arxiv url: http://arxiv.org/abs/2311.09606v2
- Date: Thu, 22 Feb 2024 05:15:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-23 18:22:04.367930
- Title: GistScore: Learning Better Representations for In-Context Example
Selection with Gist Bottlenecks
- Title(参考訳): GistScore: Gist Bottlenecksを使ったコンテキスト内サンプル選択のための表現の改善
- Authors: Shivanshu Gupta, Clemens Rosenbaum, Ethan R. Elenberg
- Abstract要約: In-context Learning(ICL)は、大規模言語モデル(LLM)がプロンプトで条件付きで新しいタスクを実行する機能である。
本稿では,教師付き微調整によるサンプルエンコーダの学習手法であるサンプルギストリングを提案する。
我々の微調整モデルでは、既成のレトリバーよりも20%以上向上し、最先端のICL性能が得られている。
- 参考スコア(独自算出の注目度): 3.9638110494107095
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In-context Learning (ICL) is the ability of Large Language Models (LLMs) to
perform new tasks when conditioned on prompts comprising a few task examples.
However, ICL performance can be critically sensitive to the choice of examples.
To dynamically select the best examples for every test input, we propose
Example Gisting, a novel approach for training example encoders through
supervised fine-tuning with an attention bottleneck between the inputs and
outputs. These gist models form the basis for GistScore, a novel metric for
scoring and selecting informative examples. Further, we experiment with two
variations: (1) fine-tuning gist models for each dataset and (2) multi-task
training a single model on a large collection of datasets. The latter can be
used for new tasks out-of-the-box, enabling a training-free ICL pipeline.
Evaluations with 21 datasets spanning 9 tasks and 8 diverse LLMs show that our
fine-tuned models get state-of-the-art ICL performance with over 20% absolute
gain over off-the-shelf retrievers and 5% over the best prior methods. Further,
our multi-task model generalizes well to new tasks, datasets, and prompt
templates. Selection using this model matches or outperforms prior methods
while being three orders of magnitude faster than the strongest training-free
baseline.
- Abstract(参考訳): In-context Learning(ICL)は、大規模言語モデル(LLM)がいくつかのタスク例を含むプロンプトで条件付きで新しいタスクを実行する機能である。
しかし、iclのパフォーマンスは例の選択に極めて敏感である。
テスト入力毎に最適なサンプルを動的に選択するために、入力と出力の間の注意のボトルネックを伴う教師付き微調整により、サンプルエンコーダをトレーニングするための新しいアプローチである例 gistingを提案する。
これらのgistモデルは、有益な例を採点し選択するための新しい指標であるgistcoreの基礎を形成する。
さらに,(1)データセット毎のgistモデルの微調整,(2)データセットの大規模なコレクション上でのマルチタスクトレーニング,という2つのバリエーションを実験した。
後者は、トレーニングフリーのiclパイプラインを可能にする新しいタスクに使用できる。
9つのタスクにまたがる21のデータセットと8つの多種多様なLCMによる評価は、我々の微調整されたモデルが最先端のICLのパフォーマンスを獲得し、既成のレトリバーよりも20%以上、最高の先行手法よりも5%以上向上していることを示している。
さらに、我々のマルチタスクモデルは、新しいタスク、データセット、プロンプトテンプレートによく当てはまる。
このモデルを用いた選択は、最強のトレーニングフリーベースラインよりも3桁早く、以前のメソッドにマッチするか、上回る。
関連論文リスト
- DsDm: Model-Aware Dataset Selection with Datamodels [81.01744199870043]
標準的なプラクティスは、データ品質という人間の考え方にマッチする例をフィルタリングすることです。
質の高い"データソースとの類似性に応じた選択は、ランダムに選択するデータに比べてパフォーマンスが向上しない(さらに傷つく)可能性がある。
我々のフレームワークは、データ品質に関する手作業による概念を回避し、学習プロセスがターゲットタスクの予測にデータポイントをトレーニングする方法を明確にモデル化する。
論文 参考訳(メタデータ) (2024-01-23T17:22:00Z) - One Shot Learning as Instruction Data Prospector for Large Language
Models [111.0897473747819]
Nuggetsは、ワンショット学習を用いて、拡張データセットから高品質な命令データを選択する手法である。
提案手法は,Nuggets が生成した例の上位1%による命令チューニングが,全データセットを使用する従来の手法よりも大幅に優れていたことを実証する。
論文 参考訳(メタデータ) (2023-12-16T03:33:12Z) - Self-Evolved Diverse Data Sampling for Efficient Instruction Tuning [47.02160072880698]
モデル自体が等しくあるいはそれ以上に効果的であるサブセットを積極的にサンプリングできる自己進化メカニズムを導入します。
データサンプリング技術の鍵は、選択したサブセットの多様性の向上にあります。
3つのデータセットとベンチマークにわたる大規模な実験は、DiverseEvolの有効性を示している。
論文 参考訳(メタデータ) (2023-11-14T14:10:40Z) - RetICL: Sequential Retrieval of In-Context Examples with Reinforcement
Learning [77.34726150561087]
In-Context Learning (RetICL) のための検索式を提案する。
我々は、マルコフ決定プロセスとして逐次サンプル選択の問題を定義し、LSTMを用いてサンプルレトリバーモデルを設計し、近似ポリシー最適化を用いてそれを訓練する。
論文 参考訳(メタデータ) (2023-05-23T20:15:56Z) - RPLKG: Robust Prompt Learning with Knowledge Graph [11.893917358053004]
知識グラフ(RPLKG)を用いた頑健な学習手法を提案する。
知識グラフに基づいて,多種多様な解釈可能かつ有意義なプロンプトセットを自動設計する。
RPLKGはゼロショット学習に比べてパフォーマンスが大幅に向上した。
論文 参考訳(メタデータ) (2023-04-21T08:22:58Z) - MILO: Model-Agnostic Subset Selection Framework for Efficient Model
Training and Tuning [68.12870241637636]
モデル学習からサブセット選択を分離するモデルに依存しないサブセット選択フレームワークMILOを提案する。
実験結果から、MILOはモデルを3ドル(約3,300円)でトレーニングし、ハイパーパラメータを20ドル(約2,300円)でチューニングできます。
論文 参考訳(メタデータ) (2023-01-30T20:59:30Z) - Data Curation Alone Can Stabilize In-context Learning [20.874674130060388]
In-context Learning (ICL) は、大規模な言語モデルに対して、一連のトレーニング例でそれらを促すことで、新しいタスクを実行することを可能にする。
トレーニングセットからランダムにサンプルをサンプリングすると、パフォーマンスのばらつきが高くなります。
トレーニングデータのサブセットを慎重にキュレートすることは、ICLアルゴリズムに他の変更を加えることなく、ICLのパフォーマンスを大幅に安定化させることを示す。
論文 参考訳(メタデータ) (2022-12-20T15:58:54Z) - A Lagrangian Duality Approach to Active Learning [119.36233726867992]
トレーニングデータのサブセットのみをラベル付けするバッチアクティブな学習問題を考察する。
制約付き最適化を用いて学習問題を定式化し、各制約はラベル付きサンプルにモデルの性能を拘束する。
数値実験により,提案手法は最先端の能動学習法と同等かそれ以上に機能することを示した。
論文 参考訳(メタデータ) (2022-02-08T19:18:49Z) - The Devil is in Classification: A Simple Framework for Long-tail Object
Detection and Instance Segmentation [93.17367076148348]
本稿では,最新のロングテールLVISデータセットを用いて,最先端の2段階のインスタンスセグメンテーションモデルMask R-CNNの性能低下について検討する。
主な原因は、オブジェクト提案の不正確な分類である。
そこで本研究では,2段階のクラスバランスサンプリング手法により,分類ヘッドバイアスをより効果的に緩和する,簡単な校正フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T12:49:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。