論文の概要: From Few to Many: Self-Improving Many-Shot Reasoners Through Iterative Optimization and Generation
- arxiv url: http://arxiv.org/abs/2502.00330v1
- Date: Sat, 01 Feb 2025 06:23:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 15:06:06.115014
- Title: From Few to Many: Self-Improving Many-Shot Reasoners Through Iterative Optimization and Generation
- Title(参考訳): 少数から多まで:反復最適化と生成による自己改善多ショット共振器
- Authors: Xingchen Wan, Han Zhou, Ruoxi Sun, Hootan Nakhost, Ke Jiang, Sercan Ö. Arık,
- Abstract要約: マルチショット・イン・コンテキスト・ラーニング(ICL)はパフォーマンス上のメリットをもたらす可能性があるが、どのような側面が利点を支配しているのか、さらに多くの例にスケールアップすることがICLを改善する最も効果的な方法なのかは不明だ。
本稿では,この最適化ステップとベイズ最適化とを交互に交互に交互に組み合わせて実例集合を探索するBRIDGEと,この集合を再利用して実例の推論経路をマルチショット方式に自動的に拡張する生成ステップを提案する。
Gemini, Claude および Mistral LLM の異なるサイズでは、BRIDGE は様々なタスクにまたがって大幅に改善されている。
- 参考スコア(独自算出の注目度): 18.988069926846357
- License:
- Abstract: Recent advances in long-context large language models (LLMs) have led to the emerging paradigm of many-shot in-context learning (ICL), where it is observed that scaling many more demonstrating examples beyond the conventional few-shot setup in the context can lead to performance benefits. However, despite its promise, it is unclear what aspects dominate the benefits and whether simply scaling to more examples is the most effective way of improving many-shot ICL. In this work, we first provide an analysis of the factors driving many-shot ICL, and we find that 1) many-shot performance can still be attributed to often a few disproportionately influential examples and 2) identifying such influential examples ("optimize") and using them as demonstrations to regenerate new examples ("generate") can lead to further improvements. Inspired by the findings, we propose BRIDGE, an algorithm that alternates between the optimize step with Bayesian optimization to discover the influential sets of examples and the generate step to reuse this set to expand the reasoning paths of the examples back to the many-shot regime automatically. On Gemini, Claude, and Mistral LLMs of different sizes, we show that BRIDGE to significant improvements across a diverse set of tasks, including symbolic reasoning, numerical reasoning, and code generation.
- Abstract(参考訳): 近年のLLM(Long-context Large Language Model)の進歩により、多言語インコンテキスト学習(ICL)のパラダイムが生まれつつある。
しかし、その約束にも拘わらず、どのような面が利点を支配しているのか、また、単により多くの例にスケールアップすることが、マルチショットICLを改善する最も効果的な方法であるかどうかは不明だ。
本研究では,まず,多発性ICLを駆動する要因の分析を行い,その結果を得た。
1)多発的なパフォーマンスは、しばしば不当に影響力のある例に起因する可能性がある。
2) このような影響のある例("最適化")を特定して,新しい例("生成")を再生するデモとして使用すると,さらなる改善につながる。
この結果にインスパイアされたBRIDGEは、最適化ステップとベイズ最適化を交互に交互に組み合わせて、影響のあるサンプルの集合を探索し、この集合を再利用し、サンプルの推論経路を多ショット方式に自動的に拡張するアルゴリズムである。
Gemini, Claude および Mistral LLM の異なるサイズでは,BRIDGE は記号的推論,数値的推論,コード生成など,さまざまなタスクセットで大幅に改善されている。
関連論文リスト
- Divide, Reweight, and Conquer: A Logit Arithmetic Approach for In-Context Learning [19.16587730306472]
大規模言語モデル(LLM)の重要な機能として、インコンテキスト学習(ICL)が登場
複数の実演のロジットベースアンサンブルを用いてICLを強化する新しいフレームワークであるLogit Arithmetic Reweighting Approach (LARA)を提案する。
論文 参考訳(メタデータ) (2024-10-14T01:34:16Z) - Large Language Models Know What Makes Exemplary Contexts [42.90814615222177]
In-context Learning (ICL) は、Large Language Model (LLM) の発展において重要な機能であることが証明されている。
本稿では,LLMのための統合フレームワークを提案する。このフレームワークにより,影響力のあるインコンテキストのサンプルを自己選択してコンテキストを構成することができる。
論文 参考訳(メタデータ) (2024-08-14T12:32:41Z) - Large Language Models Prompting With Episodic Memory [53.8690170372303]
本稿では,POEM(PrOmpting with Episodic Memory)を提案する。
テストフェーズでは、各テストクエリのサンプルのシーケンスを最適化し、エピソードメモリにおけるトップkで最も類似したトレーニング例から最も高い合計報酬を得るシーケンスを選択する。
その結果,POEMはテキスト分類タスクにおいてTEMPERAやRLPromptといった最近の技術よりも5.3%向上していることがわかった。
論文 参考訳(メタデータ) (2024-08-14T11:19:28Z) - Many-Shot In-Context Learning [58.395589302800566]
大規模言語モデル (LLMs) は、文脈内学習 (ICL) において優れている
我々は、多種多様な生成的および識別的タスクにおける顕著なパフォーマンス向上を観察する。
少数ショット学習とは異なり、多ショット学習は事前学習されたバイアスをオーバーライドするのに効果的である。
論文 参考訳(メタデータ) (2024-04-17T02:49:26Z) - ParaICL: Towards Robust Parallel In-Context Learning [74.38022919598443]
大規模言語モデル(LLM)が自然言語処理の標準となっている。
インコンテキスト・ラーニング(ICL)は、いくつかの実演例の選択に依存している。
パラレルインコンテキスト学習(ParaICL)という新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-31T05:56:15Z) - Retrieval-augmented Multi-modal Chain-of-Thoughts Reasoning for Large
Language Models [56.256069117502385]
Chain of Thought (CoT)アプローチは、複雑な推論タスクにおいて、LLM(Large Language Models)の能力を高めるために使用できる。
しかし、マルチモーダル推論における最適なCoT実例の選択は、まだ検討されていない。
本稿では,この課題に対処する新しい手法として,検索機構を用いて実演例を自動的に選択する手法を提案する。
論文 参考訳(メタデータ) (2023-12-04T08:07:21Z) - RetICL: Sequential Retrieval of In-Context Examples with Reinforcement Learning [53.52699766206808]
In-Context Learning (RetICL) のための検索式を提案する。
RetICLは数学用語の問題解決と科学的質問応答のタスクに基づいて評価し,一貫した性能や一致,学習可能なベースラインを示す。
論文 参考訳(メタデータ) (2023-05-23T20:15:56Z) - Large Language Model Programs [74.31873455763275]
近年,大規模な事前学習型言語モデル (LLM) は,いくつかの例から指示に従うことや,新しいタスクを実行する能力を示している。
本稿では,この推論の行を拡張し,アルゴリズムやプログラムに組み込んでLLMの機能をさらに拡張する手法を提案する。
我々は、よりアルゴリズム的なアプローチにより、微調整をせずに、思考ベースラインの連鎖よりも6.4%改善する。
論文 参考訳(メタデータ) (2023-05-09T11:55:36Z) - In-context Example Selection with Influences [8.058815264255152]
In-context Learning(ICL)は、大規模言語モデル(LLM)から生まれた強力なパラダイムである。
この作業では、$textitin-context influences$を使用して、インコンテキストの例から、わずかなショットICLのパフォーマンスを直接分析します。
論文 参考訳(メタデータ) (2023-02-21T22:47:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。