論文の概要: Beyond Manuals and Tasks: Instance-Level Context Learning for LLM Agents
- arxiv url: http://arxiv.org/abs/2510.02369v1
- Date: Mon, 29 Sep 2025 05:38:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:52.048233
- Title: Beyond Manuals and Tasks: Instance-Level Context Learning for LLM Agents
- Title(参考訳): 手作業とタスクを超えて: LLMエージェントのインスタンスレベルコンテキスト学習
- Authors: Kuntai Cai, Juncheng Liu, Xianglin Yang, Zhaojie Niu, Xiaokui Xiao, Xing Chen,
- Abstract要約: 大規模言語モデル(LLM)エージェントは通常、インタラクションインターフェースとグローバルルールを定義する環境レベルのマニュアルと、特定の目標に関連するタスクレベルのガイダンスまたはデモの2つの種類のコンテキストを受信する。
我々は、複雑なタスクにおいて、LLMエージェントの障害発生源としてインスタンスレベルのコンテキストが欠如していることを論じる。
我々は、この問題をインスタンスレベルコンテキスト学習(ILCL)として定式化し、それを解決するためのタスクに依存しない方法を紹介します。
- 参考スコア(独自算出の注目度): 22.620674535292068
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language model (LLM) agents typically receive two kinds of context: (i) environment-level manuals that define interaction interfaces and global rules, and (ii) task-level guidance or demonstrations tied to specific goals. In this work, we identify a crucial but overlooked third type of context, instance-level context, which consists of verifiable and reusable facts tied to a specific environment instance, such as object locations, crafting recipes, and local rules. We argue that the absence of instance-level context is a common source of failure for LLM agents in complex tasks, as success often depends not only on reasoning over global rules or task prompts but also on making decisions based on precise and persistent facts. Acquiring such context requires more than memorization: the challenge lies in efficiently exploring, validating, and formatting these facts under tight interaction budgets. We formalize this problem as Instance-Level Context Learning (ILCL) and introduce our task-agnostic method to solve it. Our method performs a guided exploration, using a compact TODO forest to intelligently prioritize its next actions and a lightweight plan-act-extract loop to execute them. This process automatically produces a high-precision context document that is reusable across many downstream tasks and agents, thereby amortizing the initial exploration cost. Experiments across TextWorld, ALFWorld, and Crafter demonstrate consistent gains in both success and efficiency: for instance, ReAct's mean success rate in TextWorld rises from 37% to 95%, while IGE improves from 81% to 95%. By transforming one-off exploration into persistent, reusable knowledge, our method complements existing contexts to enable more reliable and efficient LLM agents.
- Abstract(参考訳): 大規模言語モデル(LLM)エージェントは通常2種類のコンテキストを受け取ります。
(i)インタラクションインターフェースとグローバルルールを定義する環境レベルのマニュアル、
(二)特定の目標に結びついたタスクレベルのガイダンス又はデモンストレーション。
本研究では、オブジェクトの位置、レシピ作成、ローカルルールなど、特定の環境インスタンスに関連付けられている検証可能で再利用可能な事実からなる、重要だが見過ごされている第3のコンテキスト、インスタンスレベルのコンテキストを特定する。
我々は、LLMエージェントの複雑なタスクにおける失敗の原因として、インスタンスレベルのコンテキストの欠如が共通の原因であると論じる。
このような文脈の獲得には記憶以上のものが必要だ: 課題は、密接な相互作用予算の下でこれらの事実を効率的に探索、検証、フォーマットすることである。
我々は、この問題をインスタンスレベルコンテキスト学習(ILCL)として定式化し、それを解決するためのタスクに依存しない方法を紹介します。
提案手法は,TODO林を用いて誘導探索を行い,その次の動作をインテリジェントに優先順位付けし,それを実行するための軽量なプラン・アクト・エクストラクション・ループを設計する。
このプロセスは、多くの下流タスクやエージェントで再利用可能な高精度なコンテキスト文書を自動的に生成し、初期探査コストを償却する。
たとえば、TextWorldにおけるReActの平均成功率は37%から95%に上昇し、IGEは81%から95%に改善した。
ワンオフ探索を永続的で再利用可能な知識に変換することで、既存のコンテキストを補完し、より信頼性が高く効率的なLLMエージェントを実現する。
関連論文リスト
- Self-Generated In-Context Examples Improve LLM Agents for Sequential Decision-Making Tasks [11.125564622217892]
大規模言語モデルエージェントは、人間の介入なしに自身の成功経験から学習することで改善する。
提案手法は,将来的なタスクのコンテキスト内例として機能する,自己生成トラジェクトリのデータベースを構築し,改良する。
我々の軌道ブートストラッピング技術は、エージェントが経験を通じて自律的に改善できることを示し、労働集約的な知識工学に代わるスケーラブルな代替手段を提供する。
論文 参考訳(メタデータ) (2025-05-01T00:48:12Z) - New Dataset and Methods for Fine-Grained Compositional Referring Expression Comprehension via Specialist-MLLM Collaboration [49.180693704510006]
Referring Expression (REC) は、言語理解、画像理解、言語と画像の接点の相互作用を評価するためのクロスモーダルなタスクである。
MLLM(Multimodal Large Language Models)の試験場として機能する。
論文 参考訳(メタデータ) (2025-02-27T13:58:44Z) - Learning Task Representations from In-Context Learning [73.72066284711462]
大規模言語モデル(LLM)は、文脈内学習において顕著な習熟性を示している。
ICLプロンプトにおけるタスク情報をアテンションヘッドの関数として符号化するための自動定式化を導入する。
提案手法の有効性は,最後の隠れ状態の分布と最適に実行されたテキスト内学習モデルとの整合性に起因していることを示す。
論文 参考訳(メタデータ) (2025-02-08T00:16:44Z) - Sub-goal Distillation: A Method to Improve Small Language Agents [21.815417165548187]
大規模言語モデル(LLM)は対話型タスクにおけるエージェントとして大きな可能性を証明している。
数十億のパラメータを持つLLMの性能を、はるかに小さな言語モデルに転送する手法を提案する。
困難かつマルチタスクな対話型テキスト環境であるScienceWorldでは,基本動作のみに基づく標準的な模倣学習を16.7%超えている。
論文 参考訳(メタデータ) (2024-05-04T20:34:06Z) - Scalable Language Model with Generalized Continual Learning [58.700439919096155]
The Joint Adaptive Re-ization (JARe) is integrated with Dynamic Task-related Knowledge Retrieval (DTKR) to enable adapt adjust of language model based on specific downstream task。
提案手法は,様々なバックボーンやベンチマーク上での最先端性能を実証し,最小限の忘れを伴い,フルセットおよび少数ショットのシナリオにおいて効果的な連続学習を実現する。
論文 参考訳(メタデータ) (2024-04-11T04:22:15Z) - WESE: Weak Exploration to Strong Exploitation for LLM Agents [95.6720931773781]
本稿では,オープンワールド対話型タスクの解法において,LLMエージェントの強化を目的としたWeak Exploration to Strong Exploitation (WESE)を提案する。
WESEは、探究と搾取のプロセスを分離し、費用対効果の弱いエージェントを用いて世界的知識の探索を行う。
次に、獲得した知識を格納し、タスク関連知識を抽出する知識グラフベースの戦略を導入する。
論文 参考訳(メタデータ) (2024-04-11T03:31:54Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。