論文の概要: In-Context Learning with Iterative Demonstration Selection
- arxiv url: http://arxiv.org/abs/2310.09881v1
- Date: Sun, 15 Oct 2023 16:40:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 17:28:20.099838
- Title: In-Context Learning with Iterative Demonstration Selection
- Title(参考訳): 反復演示選択を用いたインテクスト学習
- Authors: Chengwei Qin, Aston Zhang, Anirudh Dagar, Wenming Ye
- Abstract要約: In-context Learning (ICL)は、数発のデモの選択に敏感であることが示されている。
反復デモ選択(IDS)は、多種多様であるが、テストサンプルと強く相関している例を反復的に選択する。
IDS は既存の ICL のデモ選択方法よりずっと優れています。
- 参考スコア(独自算出の注目度): 34.44075737356436
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Spurred by advancements in scale, large language models (LLMs) have
demonstrated strong few-shot learning ability via in-context learning (ICL).
However, the performance of ICL has been shown to be highly sensitive to the
selection of few-shot demonstrations. Selecting the most suitable examples as
context remains an ongoing challenge and an open problem. Existing literature
has highlighted the importance of selecting examples that are diverse or
semantically similar to the test sample while ignoring the fact that the
optimal selection dimension, i.e., diversity or similarity, is task-specific.
Leveraging the merits of both dimensions, we propose Iterative Demonstration
Selection (IDS). Using zero-shot chain-of-thought reasoning (Zero-shot-CoT),
IDS iteratively selects examples that are diverse but still strongly correlated
with the test sample as ICL demonstrations. Specifically, IDS applies
Zero-shot-CoT to the test sample before demonstration selection. The output
reasoning path is then used to choose demonstrations that are prepended to the
test sample for inference. The generated answer is accompanied by its
corresponding reasoning path for extracting a new set of demonstrations in the
next iteration. After several iterations, IDS adopts majority voting to obtain
the final result. Through extensive experiments on tasks including commonsense
reasoning, question answering, topic classification, and sentiment analysis, we
demonstrate that IDS can consistently outperform existing ICL demonstration
selection methods.
- Abstract(参考訳): 大規模化により,大規模言語モデル (LLM) は,文脈内学習 (ICL) を介して,強力な数発学習能力を示した。
しかし、iclの性能は、少数のデモの選択に非常に敏感であることが示されている。
コンテキストとして最も適切な例を選択することは、現在も進行中の課題であり、オープンな問題である。
既存の文献は、最適選択次元(多様性または類似性)がタスク固有であるという事実を無視しながら、テストサンプルと多様性または意味的に類似した例を選択することの重要性を強調している。
両次元のメリットを生かして,反復デモ選択(IDS)を提案する。
ゼロショットチェーン・オブ・シークレット推論(Zero-shot-CoT)を用いて、IDSは多種多様であるが、ICLの実証としてテストサンプルと強く相関する例を反復的に選択する。
具体的には、デモ選択前のテストサンプルにZero-shot-CoTを適用する。
出力推論パスは、推論のためにテストサンプルに事前設定されたデモを選択するために使用される。
生成された回答には、次のイテレーションで新しいデモセットを抽出する対応する推論パスが添付されている。
数回のイテレーションの後、idsは多数決を採用して最終結果を得る。
本研究は,コモンセンス推論,質問応答,トピック分類,感情分析などのタスクに関する広範な実験を通じて,IDSが既存のICLの実証選択手法を一貫して上回ることを示す。
関連論文リスト
- DemoShapley: Valuation of Demonstrations for In-Context Learning [20.26604061802236]
インコンテキスト学習(ICL)を利用した大規模言語モデル(LLM)は、タスク固有の微調整を必要とせずに、様々なタスク間で数ショットの学習を行う新しいベンチマークを設定した。
我々は、Data Shapleyの評価定理にインスパイアされたDemoShapleyを紹介する。
この結果から,DemoShapleyは精度と公平性の観点からモデル性能を向上するだけでなく,コンテキスト内デモとは異なる領域からのクエリを一般化することがわかった。
論文 参考訳(メタデータ) (2024-10-10T01:35:03Z) - Prompt Optimization with EASE? Efficient Ordering-aware Automated Selection of Exemplars [66.823588073584]
大規模言語モデル(LLM)は、現実世界のアプリケーションで印象的な機能を示している。
これらの卓越した作品の品質は、パフォーマンスに大きな影響を与えます。
既存の方法は、先行注文がパフォーマンスに与える影響を適切に説明できない。
論文 参考訳(メタデータ) (2024-05-25T08:23:05Z) - ParaICL: Towards Robust Parallel In-Context Learning [74.38022919598443]
大規模言語モデル(LLM)が自然言語処理の標準となっている。
インコンテキスト・ラーニング(ICL)は、いくつかの実演例の選択に依存している。
パラレルインコンテキスト学習(ParaICL)という新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-31T05:56:15Z) - Revisiting Demonstration Selection Strategies in In-Context Learning [66.11652803887284]
大規模言語モデル(LLM)は、インコンテキスト学習(ICL)を用いて広範囲のタスクを実行するという印象的な能力を示している。
本研究ではまず,データとモデルの両方の側面から,この分散に寄与する要因を再検討し,実演の選択がデータとモデルに依存していることを確かめる。
本研究では,データとモデルに依存した実演選択手法である textbfTopK + ConE を提案する。
論文 参考訳(メタデータ) (2024-01-22T16:25:27Z) - In-context Learning with Retrieved Demonstrations for Language Models: A Survey [23.24271704145876]
インコンテクスト学習者(ICL)は入力コンテキストでのデモを少しだけ行うだけで、新しいタスクに適応できる。
最近の開発では、固定された一連のデモを使う代わりに、各入力クエリに合わせたデモを検索する。
本稿では,検索モデル,検索訓練手順,推論アルゴリズムの異なる設計選択について論じ,比較する。
論文 参考訳(メタデータ) (2024-01-21T23:34:42Z) - In-Context Demonstration Selection with Cross Entropy Difference [95.21947716378641]
大規模言語モデル(LLM)は、ゼロショットタスクのパフォーマンスを改善するためにコンテキスト内デモを使用することができる。
テキスト内デモを選択するためのクロスエントロピー差分法(CED)を提案する。
論文 参考訳(メタデータ) (2023-05-24T05:04:00Z) - Active Learning Principles for In-Context Learning with Large Language
Models [65.09970281795769]
本稿では,アクティブ・ラーニング・アルゴリズムが,文脈内学習における効果的な実演選択手法としてどのように機能するかを検討する。
ALによる文脈内サンプル選択は,不確実性の低い高品質な事例を優先し,試験例と類似性を有することを示す。
論文 参考訳(メタデータ) (2023-05-23T17:16:04Z) - True Few-Shot Learning with Language Models [78.42578316883271]
ホールドアウト例が利用できない場合, LMの少数ショット能力を評価する。
以上の結果から,先行研究はLMの真少ショット能力を大幅に過大評価していたことが示唆された。
論文 参考訳(メタデータ) (2021-05-24T17:55:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。