論文の概要: GRAD: Generative Retrieval-Aligned Demonstration Sampler for Efficient Few-Shot Reasoning
- arxiv url: http://arxiv.org/abs/2510.01165v1
- Date: Wed, 01 Oct 2025 17:52:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.703885
- Title: GRAD: Generative Retrieval-Aligned Demonstration Sampler for Efficient Few-Shot Reasoning
- Title(参考訳): GRAD: 効率的なFew-Shot Reasoningのための生成型検索アライメント・デモ・サンプリング
- Authors: Oussama Gabouj, Kamel Charaf, Ivan Zakazov, Nicolas Baldwin, Robert West,
- Abstract要約: 大規模言語モデル(LLM)は様々なタスクで高いパフォーマンスを達成する。
Retrieval-Augmented Generation (RAG)は外部情報でプロンプトを豊かにするが、静的データベースへの依存は適応性を制限する。
本稿では,GRAD(Generative Retrieval-Aligned Demonstrator)を提案する。
- 参考スコア(独自算出の注目度): 6.371118178107715
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) achieve strong performance across diverse tasks, but their effectiveness often depends on the quality of the provided context. Retrieval-Augmented Generation (RAG) enriches prompts with external information, but its reliance on static databases constrains adaptability and can result in irrelevant demonstrations. In this work, we propose a Generative Retrieval-Aligned Demonstrator (GRAD), a dynamic demonstration-based approach where an LLM model is trained to generate input-specific concise demonstrations. By tailoring demonstrations to each input, our method offers better contextual support than traditional RAG approaches. We demonstrate the superiority of GRAD under budget constraints, where we limit both the number of tokens used per demonstration and the number of tokens used for the final output. Trained solely on a math dataset, GRAD consistently outperforms strong baselines on Qwen2.5-14B across mathematical reasoning and advanced STEM questions, highlighting GRAD's robust generalization to out-of-distribution (OOD) domains such as physics, chemistry, and computer science. Furthermore, we show that demonstrations generated by trained smaller models can effectively guide larger target models, reducing training costs while maintaining competitive accuracy. Overall, this work introduces a scalable demonstration generator model presenting the first step toward a dynamic few-shot learning paradigm in resource-constrained settings. We release the code used for the project.
- Abstract(参考訳): 大規模言語モデル(LLM)は多様なタスクにまたがって高いパフォーマンスを達成するが、その有効性は提供されたコンテキストの品質に依存することが多い。
Retrieval-Augmented Generation (RAG)は外部情報でプロンプトを豊かにするが、静的データベースへの依存は適応性を制約し、無関係なデモンストレーションをもたらす可能性がある。
本研究では,LLMモデルを用いて入力固有の簡潔な実演を生成する動的実演に基づく手法として,GRAD(Generative Retrieval-Aligned Demonstrator)を提案する。
提案手法は,各入力に対してデモを調整することにより,従来のRAG手法よりもコンテキストサポートが優れている。
予算制約下でのGRADの優位性を実証し,実証に使用するトークン数と最終出力に使用するトークン数の両方を制限した。
数学データセットのみに基づいてトレーニングされたGRADは、数学的推論や高度なSTEM問題を通じて、Qwen2.5-14Bの強いベースラインを一貫して上回り、物理学、化学、計算機科学などのアウト・オブ・ディストリビューション(OOD)領域へのGRADの堅牢な一般化を強調している。
さらに、訓練されたより小さなモデルによって生成された実演は、より大きなターゲットモデルを効果的に誘導し、競争精度を維持しながら、トレーニングコストを低減できることを示す。
全体として、リソース制約のある環境での動的な数ショット学習パラダイムに向けた第一歩として、スケーラブルなデモジェネレータモデルが導入されている。
私たちはプロジェクトに使われるコードをリリースします。
関連論文リスト
- Self-evolved Imitation Learning in Simulated World [16.459715139048367]
自己進化的模倣学習(Self-Evolved Imitation Learning、SEIL)は、シミュレーターインタラクションを通じて数ショットモデルを改善するフレームワークである。
SEILは、数ショットの模倣学習シナリオにおいて、最先端のパフォーマンスを新たに達成する。
論文 参考訳(メタデータ) (2025-09-23T18:15:32Z) - Leveraging In-Context Learning for Language Model Agents [51.2996117207114]
インコンテキスト学習(ICL)と動的に選択されたデモは、大規模言語モデル(LLM)の柔軟性と、トレーニングデータを活用してパフォーマンスを向上させる能力を組み合わせたものだ。
実演における類似タスクの軌道選択は, LLMエージェントの性能, 信頼性, 堅牢性, 効率を著しく向上させることを示す。
より大規模なモデル(アノテーションフェーズ)から得られた実演により、より小さなモデルも改善され、ICLエージェントはよりコストのかかる訓練されたエージェントと競合する可能性がある。
論文 参考訳(メタデータ) (2025-06-16T05:37:49Z) - Model Utility Law: Evaluating LLMs beyond Performance through Mechanism Interpretable Metric [99.56567010306807]
大規模言語モデル(LLM)は、学術、産業、そして日々のアプリケーションに欠かせないものになっている。
大規模言語モデル (LLM) 時代における評価の課題の1つは一般化問題である。
従来の性能スコアを補完するメカニズムの解釈可能性向上指標であるモデル利用指数(MUI)を提案する。
論文 参考訳(メタデータ) (2025-04-10T04:09:47Z) - Efficient and Context-Aware Label Propagation for Zero-/Few-Shot Training-Free Adaptation of Vision-Language Model [41.55165760439727]
視覚言語モデル(VLM)は、さまざまな下流タスクに取り組むために、トレーニング済みの大きなモデルを活用することで、機械学習に革命をもたらした。
ラベル効率適応と推論のためのグラフベースの手法を提案する。
提案手法は,テキストプロンプト,少数ショット例,テストサンプルのグラフを動的に構築する。
論文 参考訳(メタデータ) (2024-12-24T09:15:00Z) - Aligning Language Models with Demonstrated Feedback [58.834937450242975]
Demonstration ITerated Task Optimization (DITTO)は、言語モデルの出力とユーザの実証された振る舞いを直接調整する。
我々は,DITTOがニュース記事やメール,ブログ記事などのドメイン間できめ細かいスタイルやタスクアライメントを学習する能力を評価する。
論文 参考訳(メタデータ) (2024-06-02T23:13:56Z) - Efficient Prompting via Dynamic In-Context Learning [76.83516913735072]
ブラックボックスジェネリストモデルを用いた効率的なプロンプト法であるDynaICLを提案する。
DynaICLは入力複雑性と計算予算に応じてコンテキスト内の例を動的に割り当てる。
DynaICLは、各入力に同じテキスト内サンプルを割り当てる一般的な慣行と比較して、最大46%のトークン予算を節約している。
論文 参考訳(メタデータ) (2023-05-18T17:58:31Z) - Robustness of Demonstration-based Learning Under Limited Data Scenario [54.912936555876826]
実証に基づく学習は、限られたデータシナリオ下で事前訓練された言語モデルの能力を刺激する大きな可能性を示している。
実演と予測の間に明確な整合性がないため、なぜこのような実演が学習プロセスに有益なのかは不明だ。
本稿では,実証に基づくシーケンスラベリングの頑健さを深く掘り下げるために,標準情報から直感的に有用な情報を徐々に取り除き,病理デモを設計する。
論文 参考訳(メタデータ) (2022-10-19T16:15:04Z) - Self-Generated In-Context Learning: Leveraging Auto-regressive Language
Models as a Demonstration Generator [22.532627423361177]
自己生成型インコンテキスト学習(SG-ICL)は、PLM自体からインコンテキスト学習のためのデモを生成する。
我々は、SG-ICLがゼロショット学習を著しく上回り、一般的に約0.6金のトレーニングサンプルの価値があることを示した。
論文 参考訳(メタデータ) (2022-06-16T10:52:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。