論文の概要: The Power of Adaptation: Boosting In-Context Learning through Adaptive Prompting
- arxiv url: http://arxiv.org/abs/2412.17891v1
- Date: Mon, 23 Dec 2024 15:49:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-25 15:56:40.971207
- Title: The Power of Adaptation: Boosting In-Context Learning through Adaptive Prompting
- Title(参考訳): 適応の力:適応型プロンプティングによる文脈学習の促進
- Authors: Shuzhang Cai, Twumasi Mensah-Boateng, Xander Kuksov, Jing Yuan, Shaojie Tang,
- Abstract要約: 大規模言語モデル(LLM)は、幅広い言語関連タスクで例外的な能力を示している。
モデルフィードバックを活用することで,見本を適応的に選択する新しい手法であるtextscAdaptive-Promptを提案する。
実験の結果,textscAdaptive-Promptは様々な推論タスクにおけるLLM性能を著しく向上させることがわかった。
- 参考スコア(独自算出の注目度): 8.260097638532878
- License:
- Abstract: Large Language Models (LLMs) have demonstrated exceptional abilities across a broad range of language-related tasks, including generating solutions to complex reasoning problems. An effective technique to enhance LLM performance is in-context learning, which encourages a step-by-step reasoning process by including explanatory examples to guide the model's responses. However, selecting appropriate exemplars for the model poses a challenge, as each dataset demands a distinct set of exemplars to enable the LLM to learn effectively and perform well on the test set. Current studies often rely on uncertainty- or diversity-based selection strategies to select exemplars for annotation and to improve model learning. However, these studies typically employ a non-adaptive approach, selecting a set of exemplars all at once. We argue that this non-adaptive strategy may result in a set of exemplars with high redundancy in terms of the knowledge covered, ultimately reducing their overall informativeness. To address this limitation, we propose \textsc{Adaptive-Prompt}, a novel method that adaptively selects exemplars by leveraging model feedback from previously chosen exemplars. Experimental results show that \textsc{Adaptive-Prompt} significantly enhances LLM performance across a variety of reasoning tasks.
- Abstract(参考訳): 大規模言語モデル(LLM)は、複雑な推論問題に対するソリューションの生成を含む、幅広い言語関連タスクにおいて、例外的な能力を示してきた。
LLMの性能を向上させる効果的なテクニックは、モデル応答をガイドする説明例を含めることで、ステップバイステップの推論プロセスを促進する、コンテキスト内学習である。
しかし、LLMが効果的に学習し、テストセットでうまく動作するように、各データセットが別々の例のセットを要求するため、モデルの適切な例を選択することは課題となる。
最近の研究は、しばしば不確実性や多様性に基づく選択戦略に頼り、アノテーションの例を選定し、モデル学習を改善する。
しかしながら、これらの研究は典型的には非適応的なアプローチを採用し、全ての例を一度に選択する。
この非適応的戦略は、カバーされた知識の点で高い冗長性を持つ経験者の集合となり、最終的には全体的な情報性が低下する可能性がある、と我々は主張する。
この制限に対処するため,従来選択されていた例からモデルフィードバックを活用することで,適応的に例を選択できる新しい手法である「textsc{Adaptive-Prompt}」を提案する。
実験の結果, \textsc{Adaptive-Prompt} は様々な推論タスクにおける LLM 性能を著しく向上させることがわかった。
関連論文リスト
- STAYKATE: Hybrid In-Context Example Selection Combining Representativeness Sampling and Retrieval-based Approach -- A Case Study on Science Domains [0.8296121350988481]
大規模言語モデル(LLM)は、科学的な情報抽出のための潜在的なソリューションを提供する、文脈内で学習する能力を示す。
STAYKATE(StaYKATE)は,アクティブラーニングからの代表性サンプリングの原理と,一般的な検索に基づくアプローチを組み合わせた静的・動的ハイブリッド選択法である。
3つのドメイン固有のデータセットにまたがる結果は、STAYKATEが従来の教師付き手法と既存の選択方法の両方より優れていることを示している。
論文 参考訳(メタデータ) (2024-12-28T06:13:50Z) - PromptRefine: Enhancing Few-Shot Performance on Low-Resource Indic Languages with Example Selection from Related Example Banks [57.86928556668849]
大規模言語モデル(LLM)は、近ごろ、コンテキスト内学習(ICL)を通じて、印象的な数ショットの学習能力を実証した。
ICLのパフォーマンスは、数発のデモの選択に大きく依存しており、最も最適な例の選択は永続的な研究課題である。
本稿では,低リソースのIndic言語におけるICLの性能向上を目的とした,新しい代替最小化手法であるPromptRefineを提案する。
論文 参考訳(メタデータ) (2024-12-07T17:51:31Z) - Large Language Models Know What Makes Exemplary Contexts [42.90814615222177]
In-context Learning (ICL) は、Large Language Model (LLM) の発展において重要な機能であることが証明されている。
本稿では,LLMのための統合フレームワークを提案する。このフレームワークにより,影響力のあるインコンテキストのサンプルを自己選択してコンテキストを構成することができる。
論文 参考訳(メタデータ) (2024-08-14T12:32:41Z) - Prompt Optimization with EASE? Efficient Ordering-aware Automated Selection of Exemplars [66.823588073584]
大規模言語モデル(LLM)は、現実世界のアプリケーションで印象的な機能を示している。
これらの卓越した作品の品質は、パフォーマンスに大きな影響を与えます。
既存の方法は、先行注文がパフォーマンスに与える影響を適切に説明できない。
論文 参考訳(メタデータ) (2024-05-25T08:23:05Z) - Debiasing Multimodal Large Language Models [61.6896704217147]
LVLM(Large Vision-Language Models)は、コンピュータビジョンや自然言語処理において欠かせないツールとなっている。
本研究は,入力画像に先行するLarge Language Models (LLM) の影響を主に受け,生成したコンテンツに有意なバイアスが生じることを示す。
これらのバイアスを是正し、視覚情報に対するモデルの焦点をリダイレクトするために、我々は2つの単純で訓練のない戦略を導入する。
論文 参考訳(メタデータ) (2024-03-08T12:35:07Z) - RetICL: Sequential Retrieval of In-Context Examples with Reinforcement Learning [53.52699766206808]
In-Context Learning (RetICL) のための検索式を提案する。
RetICLは数学用語の問題解決と科学的質問応答のタスクに基づいて評価し,一貫した性能や一致,学習可能なベースラインを示す。
論文 参考訳(メタデータ) (2023-05-23T20:15:56Z) - Active Learning Principles for In-Context Learning with Large Language
Models [65.09970281795769]
本稿では,アクティブ・ラーニング・アルゴリズムが,文脈内学習における効果的な実演選択手法としてどのように機能するかを検討する。
ALによる文脈内サンプル選択は,不確実性の低い高品質な事例を優先し,試験例と類似性を有することを示す。
論文 参考訳(メタデータ) (2023-05-23T17:16:04Z) - Improving Meta-learning for Low-resource Text Classification and
Generation via Memory Imitation [87.98063273826702]
本稿では,メモリ模倣メタラーニング(MemIML)手法を提案する。
本手法の有効性を証明するために理論的解析を行った。
論文 参考訳(メタデータ) (2022-03-22T12:41:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。