論文の概要: LUCIFER: Language Understanding and Context-Infused Framework for Exploration and Behavior Refinement
- arxiv url: http://arxiv.org/abs/2506.07915v1
- Date: Mon, 09 Jun 2025 16:30:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:11.052525
- Title: LUCIFER: Language Understanding and Context-Infused Framework for Exploration and Behavior Refinement
- Title(参考訳): LUCIFER:言語理解とコンテキスト注入フレームワーク
- Authors: Dimitris Panagopoulos, Adolfo Perrusquia, Weisi Guo,
- Abstract要約: 動的環境において、既存の環境知識の急速な陳腐化は、エージェントの内部モデルと運用コンテキストの間にギャップを生じさせる。
本稿では、階層的な意思決定アーキテクチャと強化学習を統合したドメインに依存しないフレームワークLUCIFERを提案する。
LUCIFERは探索効率と意思決定品質を向上し、平坦で目標条件の政策よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 5.522800137785975
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In dynamic environments, the rapid obsolescence of pre-existing environmental knowledge creates a gap between an agent's internal model and the evolving reality of its operational context. This disparity between prior and updated environmental valuations fundamentally limits the effectiveness of autonomous decision-making. To bridge this gap, the contextual bias of human domain stakeholders, who naturally accumulate insights through direct, real-time observation, becomes indispensable. However, translating their nuanced, and context-rich input into actionable intelligence for autonomous systems remains an open challenge. To address this, we propose LUCIFER (Language Understanding and Context-Infused Framework for Exploration and Behavior Refinement), a domain-agnostic framework that integrates a hierarchical decision-making architecture with reinforcement learning (RL) and large language models (LLMs) into a unified system. This architecture mirrors how humans decompose complex tasks, enabling a high-level planner to coordinate specialised sub-agents, each focused on distinct objectives and temporally interdependent actions. Unlike traditional applications where LLMs are limited to single role, LUCIFER integrates them in two synergistic roles: as context extractors, structuring verbal stakeholder input into domain-aware representations that influence decision-making through an attention space mechanism aligning LLM-derived insights with the agent's learning process, and as zero-shot exploration facilitators guiding the agent's action selection process during exploration. We benchmark various LLMs in both roles and demonstrate that LUCIFER improves exploration efficiency and decision quality, outperforming flat, goal-conditioned policies. Our findings show the potential of context-driven decision-making, where autonomous systems leverage human contextual knowledge for operational success.
- Abstract(参考訳): 動的環境において、既存の環境知識の急速な陳腐化は、エージェントの内部モデルと運用コンテキストの進化する現実の間にギャップを生じさせる。
この事前の環境評価と更新された環境評価の相違は、自律的な意思決定の有効性を根本的に制限する。
このギャップを埋めるためには、直接的かつリアルタイムな観察を通じて自然に洞察を蓄積する人間のドメイン利害関係者のコンテキストバイアスが不可欠になる。
しかし、彼らのニュアンスでコンテキストに富んだインテリジェンスを自律システムのための行動可能なインテリジェンスに翻訳することは、依然としてオープンな課題である。
これを解決するために,Language Understanding and Context-Infused Framework for Exploration and Behavior Refinement(LUCIFER)を提案する。Language Understanding and Context-Infused Framework for Exploration and Behavior Refinementはドメインに依存しないフレームワークで,階層的な意思決定アーキテクチャと強化学習(RL)と大規模言語モデル(LLM)を統合システムに統合する。
このアーキテクチャは、人間が複雑なタスクを分解する方法を反映し、ハイレベルプランナーが特別なサブエージェントを調整できるようにする。
LLMが単一の役割に限られる従来のアプリケーションとは異なり、LUCIFERはこれらを2つの相乗的役割に統合する: 文脈抽出者として、LLMに由来する洞察をエージェントの学習プロセスと一致させる注意空間機構を通じて決定に影響を与えるドメイン認識表現への言語的利害関係者の入力を構造化し、探索中のエージェントの行動選択プロセスを導くゼロショット探索ファシリテーターとして。
LUCIFERは探索効率と意思決定品質を向上し、フラットでゴール条件の政策よりも優れることを示した。
本研究は,自律型システムが人間の文脈的知識を活用して運用を成功させる,文脈駆動型意思決定の可能性を示すものである。
関連論文リスト
- Scaling and Beyond: Advancing Spatial Reasoning in MLLMs Requires New Recipes [84.1059652774853]
MLLM(Multimodal Large Language Models)は、一般的な視覚言語タスクにおいて印象的な性能を示す。
近年の研究では、空間的推論能力の限界が明らかにされている。
この空間的推論の欠如は、MLLMが物理的世界と効果的に相互作用する能力を著しく制限する。
論文 参考訳(メタデータ) (2025-04-21T11:48:39Z) - A Survey of Frontiers in LLM Reasoning: Inference Scaling, Learning to Reason, and Agentic Systems [93.8285345915925]
推論(Reasoning)は、論理的推論、問題解決、意思決定を可能にする基本的な認知プロセスである。
大規模言語モデル(LLM)の急速な進歩により、推論は高度なAIシステムを区別する重要な能力として浮上した。
我々は,(1)推論が達成される段階を定義するレジーム,(2)推論プロセスに関与するコンポーネントを決定するアーキテクチャの2つの側面に沿って既存の手法を分類する。
論文 参考訳(メタデータ) (2025-04-12T01:27:49Z) - How do Large Language Models Understand Relevance? A Mechanistic Interpretability Perspective [64.00022624183781]
大規模言語モデル(LLM)は、関連性を評価し、情報検索(IR)タスクをサポートする。
メカニスティック・インタプリタビリティのレンズを用いて,異なるLLMモジュールが関係判断にどのように寄与するかを検討する。
論文 参考訳(メタデータ) (2025-04-10T16:14:55Z) - Autotelic Reinforcement Learning: Exploring Intrinsic Motivations for Skill Acquisition in Open-Ended Environments [1.104960878651584]
本稿では, 自己強化学習(RL)の概要を概観し, スキルレパートリーのオープンエンド形成における本質的モチベーションの役割を強調した。
知識ベースと能力ベースの本質的なモチベーションの区別を明確にし、これらの概念が自己定義目標を生成・追求できる自律エージェントの開発にどのように役立つかを説明する。
論文 参考訳(メタデータ) (2025-02-06T14:37:46Z) - Practical Considerations for Agentic LLM Systems [5.455744338342196]
本稿では、確立されたアプリケーションパラダイムの文脈における研究コミュニティからの実行可能な洞察と考察について述べる。
すなわち、アプリケーション中心の文献における一般的な実践に基づいて、関連する研究成果を4つの幅広いカテゴリ – プランニング、メモリツール、コントロールフロー – に位置づける。
論文 参考訳(メタデータ) (2024-12-05T11:57:49Z) - Language Agents Meet Causality -- Bridging LLMs and Causal World Models [50.79984529172807]
因果表現学習を大規模言語モデルと統合する枠組みを提案する。
このフレームワークは、自然言語表現に関連付けられた因果変数を持つ因果世界モデルを学ぶ。
本研究では,時間的スケールと環境の複雑さを考慮した因果推論と計画課題の枠組みを評価する。
論文 参考訳(メタデータ) (2024-10-25T18:36:37Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - Organizing a Society of Language Models: Structures and Mechanisms for Enhanced Collective Intelligence [0.0]
本稿では,大規模言語モデルからコミュニティ構造への変換手法を提案する。
協力型AIシステムに特有のメリットと課題を提示する,階層的,フラット,ダイナミック,フェデレートされたさまざまな組織モデルについて検討する。
このようなコミュニティの実装は、AIにおける問題解決能力を改善するための大きな約束を持っている。
論文 参考訳(メタデータ) (2024-05-06T20:15:45Z) - Solution-oriented Agent-based Models Generation with Verifier-assisted
Iterative In-context Learning [10.67134969207797]
エージェントベースのモデル(ABM)は、仮説的な解決策やポリシーの提案と検証に不可欠なパラダイムである。
大きな言語モデル(LLM)は、ドメイン間の知識とプログラミング能力をカプセル化することで、このプロセスの難しさを軽減できる可能性がある。
SAGEは、ターゲット問題に対する自動モデリングおよびソリューション生成のために設計された、汎用的なソリューション指向のABM生成フレームワークである。
論文 参考訳(メタデータ) (2024-02-04T07:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。