論文の概要: $Se^2$: Sequential Example Selection for In-Context Learning
- arxiv url: http://arxiv.org/abs/2402.13874v2
- Date: Wed, 6 Mar 2024 14:46:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 17:25:48.410598
- Title: $Se^2$: Sequential Example Selection for In-Context Learning
- Title(参考訳): $Se^2$: In-Context Learningのための逐次例選択
- Authors: Haoyu Liu, Jianfeng Liu, Shaohan Huang, Yuefeng Zhan, Hao Sun, Weiwei
Deng, Furu Wei, Qi Zhang
- Abstract要約: インコンテキスト学習(ICL)のための大規模言語モデル(LLM)は、実演例によって起動する必要がある。
以前の研究は、主に"select then organize"パラダイムに従って、ICLの例の選択を幅広く検討してきた。
本稿では,この問題を$textitse$quential $textitse$lection問題として定式化し,シーケンシャル・アウェア法である$Se2$を導入する。
- 参考スコア(独自算出の注目度): 86.75255148668198
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The remarkable capability of large language models (LLMs) for in-context
learning (ICL) needs to be activated by demonstration examples. Prior work has
extensively explored the selection of examples for ICL, predominantly following
the "select then organize" paradigm, such approaches often neglect the internal
relationships between examples and exist an inconsistency between the training
and inference. In this paper, we formulate the problem as a
$\textit{se}$quential $\textit{se}$lection problem and introduce $Se^2$, a
sequential-aware method that leverages the LLM's feedback on varying context,
aiding in capturing inter-relationships and sequential information among
examples, significantly enriching the contextuality and relevance of ICL
prompts. Meanwhile, we utilize beam search to seek and construct example
sequences, enhancing both quality and diversity. Extensive experiments across
23 NLP tasks from 8 distinct categories illustrate that $Se^2$ markedly
surpasses competitive baselines and achieves 42% relative improvement over
random selection. Further in-depth analysis show the effectiveness of proposed
strategies, highlighting $Se^2$'s exceptional stability and adaptability across
various scenarios. Our code will be released to facilitate future research.
- Abstract(参考訳): インコンテキスト学習(ICL)のための大規模言語モデル(LLM)の顕著な能力は、実演例によって活性化される必要がある。
以前の研究はICLの例の選択を幅広く検討しており、主に「選択して整理する」パラダイムに従っており、そのようなアプローチは例間の内部的関係を無視し、トレーニングと推論の間に矛盾が存在することが多い。
本稿では,この問題を$\textit{se}$quential $\textit{se}$lection問題として定式化し,様々な文脈でllmのフィードバックを活用し,例間の相互関係や逐次情報を取り込み,iclプロンプトの文脈性と妥当性を著しく高める逐次的手法である$se^2$を導入する。
一方,ビーム探索を用いてサンプル配列の探索と構築を行い,品質と多様性の両立を図る。
8つのカテゴリから23のnlpタスクにわたる広範囲な実験は、$se^2$が競合ベースラインを著しく上回り、ランダム選択よりも42%の相対的な改善を達成していることを示している。
さらに詳細な分析を行い、様々なシナリオにわたる$se^2$の例外的な安定性と適応性を強調しながら、提案された戦略の有効性を示す。
私たちのコードは将来の研究を促進するためにリリースされます。
関連論文リスト
- EXPLORA: Efficient Exemplar Subset Selection for Complex Reasoning [5.172620636569522]
大規模言語モデル (LLMs) は文脈内学習 (ICL) を可能にしており、LLMはいくつかの実演サンプル(例)を使って特定のタスクにおいて習熟度を取得できる。
ICLにおける重要な課題は、タスク特化(静的)またはテスト特化(動的)のいずれかが可能な最適例の選択である。
論文 参考訳(メタデータ) (2024-11-06T12:48:04Z) - ParaICL: Towards Robust Parallel In-Context Learning [74.38022919598443]
大規模言語モデル(LLM)が自然言語処理の標準となっている。
インコンテキスト・ラーニング(ICL)は、いくつかの実演例の選択に依存している。
パラレルインコンテキスト学習(ParaICL)という新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-31T05:56:15Z) - Lightweight In-Context Tuning for Multimodal Unified Models [57.10831399642176]
MultiModal In-conteXt Tuning (M$2$IXT)は、マルチモーダル統一モデルのICL機能を強化する軽量モジュールである。
最大50Kのマルチモーダルデータをチューニングすると、M$2$IXTは数ショットのICL性能を大幅に向上させることができる。
論文 参考訳(メタデータ) (2023-10-08T10:47:24Z) - RetICL: Sequential Retrieval of In-Context Examples with Reinforcement Learning [53.52699766206808]
In-Context Learning (RetICL) のための検索式を提案する。
RetICLは数学用語の問題解決と科学的質問応答のタスクに基づいて評価し,一貫した性能や一致,学習可能なベースラインを示す。
論文 参考訳(メタデータ) (2023-05-23T20:15:56Z) - Active Learning Principles for In-Context Learning with Large Language
Models [65.09970281795769]
本稿では,アクティブ・ラーニング・アルゴリズムが,文脈内学習における効果的な実演選択手法としてどのように機能するかを検討する。
ALによる文脈内サンプル選択は,不確実性の低い高品質な事例を優先し,試験例と類似性を有することを示す。
論文 参考訳(メタデータ) (2023-05-23T17:16:04Z) - Finding Support Examples for In-Context Learning [73.90376920653507]
本稿では,この課題を2段階に解決するためのfilter-thEN-Search法であるLENSを提案する。
まず、データセットをフィルタリングして、個別に情報的インコンテキストの例を得る。
そこで本研究では,反復的に改良し,選択したサンプル順列を評価可能な多様性誘導型サンプル探索を提案する。
論文 参考訳(メタデータ) (2023-02-27T06:32:45Z) - Compositional Exemplars for In-context Learning [21.961094715261133]
大規模な事前学習言語モデル(LM)は、印象的なインコンテキスト学習(ICL)能力を示している。
本稿では,CEIL (Compositional Exemplars for In-context Learning) を提案する。
我々は、感情分析、パラフレーズ検出、自然言語推論、コモンセンス推論、オープンドメイン質問応答、コード生成、意味解析を含む7つの異なるNLPタスクから、CEILを12の分類および生成データセットで検証する。
論文 参考訳(メタデータ) (2023-02-11T14:02:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。