論文の概要: ExpeTrans: LLMs Are Experiential Transfer Learners
- arxiv url: http://arxiv.org/abs/2505.23191v1
- Date: Thu, 29 May 2025 07:30:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.74202
- Title: ExpeTrans: LLMs Are Experiential Transfer Learners
- Title(参考訳): ExpeTrans: LLMは経験的移行学習者です
- Authors: Jinglong Gao, Xiao Ding, Lingxiao Zou, Bibo Cai, Bing Qin, Ting Liu,
- Abstract要約: 我々は、大規模言語モデルが人間の認知知性を模倣できるかどうかを検討するために、自律的な体験伝達フレームワークを設計する。
13個のデータセットに対する実験結果から,LLMの性能を効果的に向上することが示された。
- 参考スコア(独自算出の注目度): 31.19237735717009
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent studies provide large language models (LLMs) with textual task-solving experiences via prompts to improve their performance. However, previous methods rely on substantial human labor or time to gather such experiences for each task, which is impractical given the growing variety of task types in user queries to LLMs. To address this issue, we design an autonomous experience transfer framework to explore whether LLMs can mimic human cognitive intelligence to autonomously transfer experience from existing source tasks to newly encountered target tasks. This not only allows the acquisition of experience without extensive costs of previous methods, but also offers a novel path for the generalization of LLMs. Experimental results on 13 datasets demonstrate that our framework effectively improves the performance of LLMs. Furthermore, we provide a detailed analysis of each module in the framework.
- Abstract(参考訳): 近年の研究では,大規模言語モデル (LLM) とテキストによるタスク解決経験を,その性能向上のプロンプトを通じて提供する。
しかし, 従来の手法では, LLMに対するユーザクエリの多様さを考えると, 作業毎にそのような経験を収集するのに要する時間や作業時間に依存していた。
この問題に対処するため、我々は、LLMが人間の認知知能を模倣して既存のソースタスクから新しく遭遇したターゲットタスクへの体験を自律的に転送できるかどうかを検討するために、自律的な体験伝達フレームワークを設計する。
これにより、従来の手法の大幅なコストを伴わずに経験の獲得が可能になるだけでなく、LLMの一般化のための新しい経路も提供できる。
13個のデータセットに対する実験結果から,LLMの性能を効果的に向上することが示された。
さらに、フレームワーク内の各モジュールについて詳細な分析を行う。
関連論文リスト
- From Selection to Generation: A Survey of LLM-based Active Learning [153.8110509961261]
大きな言語モデル(LLM)は、全く新しいデータインスタンスを生成し、よりコスト効率の良いアノテーションを提供するために使われています。
本調査は,LSMに基づくAL手法の直感的な理解を目指して,研究者や実践者の最新のリソースとして機能することを目的としている。
論文 参考訳(メタデータ) (2025-02-17T12:58:17Z) - Self-Evolving GPT: A Lifelong Autonomous Experiential Learner [40.16716983217304]
大規模言語モデル(LLM)に基づく生涯の自律的経験学習フレームワークを設計する。
自律的に学習し、経験の伝達と帰納を通じて経験を蓄積し、どのような種類の入力質問を分類し、どの蓄積された経験を雇用するかを選択する。
6つのNLPデータセットによる実験結果から,本フレームワークは各中間段階において確実に動作し,GPT-3.5およびGPT-4の性能を効果的に向上することが示された。
論文 参考訳(メタデータ) (2024-07-12T02:49:13Z) - A Reality check of the benefits of LLM in business [1.9181612035055007]
大規模言語モデル(LLM)は、言語理解および生成タスクにおいて顕著なパフォーマンスを達成した。
ビジネスプロセスにおけるLCMの有用性と準備性について概説する。
論文 参考訳(メタデータ) (2024-06-09T02:36:00Z) - Small LLMs Are Weak Tool Learners: A Multi-LLM Agent [73.54562551341454]
大規模言語モデル(LLM)エージェントはスタンドアロンのLLMの機能を大幅に拡張する。
本稿では、上記の機能をプランナー、呼び出し元、要約器に分解する新しい手法を提案する。
このモジュール化されたフレームワークは、個々の更新と、それぞれの機能を構築するための小さなLLMの潜在的な使用を容易にする。
論文 参考訳(メタデータ) (2024-01-14T16:17:07Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - ExpeL: LLM Agents Are Experiential Learners [57.13685954854463]
実験学習エージェント(ExpeL)を導入し、パラメトリック更新を必要とせずにエージェント体験から学習できるようにする。
我々のエージェントは、経験を自律的に収集し、学習課題の集合から自然言語を用いて知識を抽出する。
推論において、エージェントは抽出された洞察と過去の経験をリコールし、情報的決定を行う。
論文 参考訳(メタデータ) (2023-08-20T03:03:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。