論文の概要: SEO: Stochastic Experience Optimization for Large Language Models
- arxiv url: http://arxiv.org/abs/2501.04393v1
- Date: Wed, 08 Jan 2025 10:10:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-09 14:56:13.952601
- Title: SEO: Stochastic Experience Optimization for Large Language Models
- Title(参考訳): SEO: 大規模言語モデルの確率的エクスペリエンス最適化
- Authors: Jitao Xu, Hongyun Zhou, Lei Shen, Conghui Zhu, Jin Huang, Yitao Duan,
- Abstract要約: 大きな言語モデル(LLM)は、特定のタスクのパフォーマンスを改善する上で有用なエクスペリエンスの恩恵を受けることができます。
従来の研究は, LLMを用いた有用な経験を自動的に発見することを目的としていたが, 得られた経験の有効性の確認は困難であった。
本稿では、自然言語のエクスペリエンス更新を通じてパラメータを変更することなく、モデル固有のエクスペリエンスを最適化する反復的手法である経験最適化(SEO)を提案する。
- 参考スコア(独自算出の注目度): 14.375065321632084
- License:
- Abstract: Large Language Models (LLMs) can benefit from useful experiences to improve their performance on specific tasks. However, finding helpful experiences for different LLMs is not obvious, since it is unclear what experiences suit specific LLMs. Previous studies intended to automatically find useful experiences using LLMs, while it is difficult to ensure the effectiveness of the obtained experience. In this paper, we propose Stochastic Experience Optimization (SEO), an iterative approach that finds optimized model-specific experience without modifying model parameters through experience update in natural language. In SEO, we propose a stochastic validation method to ensure the update direction of experience, avoiding unavailing updates. Experimental results on three tasks for three LLMs demonstrate that experiences optimized by SEO can achieve consistently improved performance. Further analysis indicates that SEO-optimized experience can generalize to out-of-distribution data, boosting the performance of LLMs on similar tasks.
- Abstract(参考訳): 大きな言語モデル(LLM)は、特定のタスクのパフォーマンスを改善する上で有用なエクスペリエンスの恩恵を受けることができます。
しかし、異なるLLMに対して有用な経験を見つけることは、特定のLLMにどのような経験があるかは明らかではない。
従来の研究は, LLMを用いた有用な経験を自動的に発見することを目的としていたが, 得られた経験の有効性の確認は困難であった。
本稿では,Stochastic Experience Optimization (SEO)を提案する。Stochastic Experience Optimization (SEO) は,自然言語のエクスペリエンス更新を通じてモデルパラメータを変更することなく,モデル固有のエクスペリエンスを最適化する手法である。
SEOでは,経験の更新方向を確保するための確率的検証手法を提案する。
3つのLCMの3つのタスクに対する実験結果から,SEOによって最適化された体験が一貫した性能向上を達成できることが示された。
さらに分析した結果,SEO最適化経験は分布外データに一般化され,同様のタスクにおけるLCMの性能が向上することが示唆された。
関連論文リスト
- OptiSeq: Ordering Examples On-The-Fly for In-Context Learning [8.603219414567084]
OptiSeqは、最適なサンプル順序を効率的に決定する、純粋に推論時間、データセットなしの最適化手法である。
OptiSeqは複数のタスクで5.5~10.5ポイントの精度向上を実現している。
論文 参考訳(メタデータ) (2025-01-25T02:24:00Z) - Star-Agents: Automatic Data Optimization with LLM Agents for Instruction Tuning [71.2981957820888]
本稿では,データセット間のデータ品質向上を自動化する新しいStar-Agentsフレームワークを提案する。
このフレームワークは最初,複数のLDMエージェントを用いた多様なインストラクションデータを生成する。
生成したデータは、難易度と品質の両方を評価する二重モデル法を用いて厳密な評価を行う。
論文 参考訳(メタデータ) (2024-11-21T02:30:53Z) - CoPS: Empowering LLM Agents with Provable Cross-Task Experience Sharing [70.25689961697523]
クロスタスク体験の共有と選択によるシーケンシャル推論を強化する一般化可能なアルゴリズムを提案する。
我々の研究は、既存のシーケンシャルな推論パラダイムのギャップを埋め、タスク間体験の活用の有効性を検証する。
論文 参考訳(メタデータ) (2024-10-22T03:59:53Z) - HLLM: Enhancing Sequential Recommendations via Hierarchical Large Language Models for Item and User Modeling [21.495443162191332]
大規模言語モデル(LLM)は様々な分野で顕著な成功を収めており、いくつかの研究がレコメンデーションシステムにおいてその可能性を探求している。
逐次レコメンデーションシステムを強化するために,新しい階層型大規模言語モデル (HLLM) アーキテクチャを提案する。
HLLMは,項目特徴抽出とユーザ関心モデリングの両方に 7B パラメータを利用する構成で,優れたスケーラビリティを実現している。
論文 参考訳(メタデータ) (2024-09-19T13:03:07Z) - Iterative Experience Refinement of Software-Developing Agents [81.09737243969758]
大規模な言語モデル(LLM)は、過去の経験を活用してエラーを低減し、効率を高めることができる。
本稿では,LLMエージェントがタスク実行中に反復的に経験を洗練できる反復体験精錬フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-07T11:33:49Z) - Are Large Language Models Good Prompt Optimizers? [65.48910201816223]
我々は,LLMに基づくPrompt Optimizationの実際のメカニズムを明らかにするために研究を行っている。
以上の結果から, LLMは, 反射中の誤差の真の原因を特定するのに苦慮し, 自己の事前知識に偏っていることが明らかとなった。
我々は、より制御可能な方法でターゲットモデルの振舞いを直接最適化する新しい「自動振舞い最適化」パラダイムを導入する。
論文 参考訳(メタデータ) (2024-02-03T09:48:54Z) - Towards Optimizing with Large Language Models [3.80039497875781]
各種タスクやデータサイズにまたがるLLMの最適化能力の評価を行う。
様々な視点からタスクパフォーマンスの総合評価を行うために,3つの異なる指標を紹介した。
論文 参考訳(メタデータ) (2023-10-08T15:35:00Z) - On Learning to Summarize with Large Language Models as References [101.79795027550959]
大型言語モデル (LLM) は、一般的な要約データセットにおける元の参照要約よりも人間のアノテーションに好まれる。
より小さなテキスト要約モデルに対するLLM-as-reference学習設定について検討し,その性能が大幅に向上するかどうかを検討する。
論文 参考訳(メタデータ) (2023-05-23T16:56:04Z) - Introspective Tips: Large Language Model for In-Context Decision Making [48.96711664648164]
我々は,大規模言語モデル(LLM)の自己最適化を促進するために,イントロスペクティブティップス(Introspective Tips)を採用している。
本手法は,少数ショットとゼロショットの両方の学習状況において,エージェントの性能を向上させる。
TextWorldにおける100以上のゲームに関する実験は、我々のアプローチの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-05-19T11:20:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。