論文の概要: Exploring Plan Space through Conversation: An Agentic Framework for LLM-Mediated Explanations in Planning
- arxiv url: http://arxiv.org/abs/2603.02070v1
- Date: Mon, 02 Mar 2026 16:58:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.98525
- Title: Exploring Plan Space through Conversation: An Agentic Framework for LLM-Mediated Explanations in Planning
- Title(参考訳): 対話による計画空間の探索:LLMを用いた計画記述のためのエージェント・フレームワーク
- Authors: Guilhem Fouilhé, Rebecca Eifler, Antonin Poché, Sylvie Thiébaux, Nicholas Asher,
- Abstract要約: 説明フレームワークに依存しないマルチエージェント大規模言語モデルアーキテクチャを提案し,ユーザとコンテキストに依存した対話型説明を可能にする。
また,LLMを用いた対話とベースラインテンプレートベースの説明インタフェースの比較を行うために,このフレームワークをゴール・コンフリクト・説明のためのインスタンス化についても述べる。
- 参考スコア(独自算出の注目度): 10.679298682391817
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When automating plan generation for a real-world sequential decision problem, the goal is often not to replace the human planner, but to facilitate an iterative reasoning and elicitation process, where the human's role is to guide the AI planner according to their preferences and expertise. In this context, explanations that respond to users' questions are crucial to improve their understanding of potential solutions and increase their trust in the system. To enable natural interaction with such a system, we present a multi-agent Large Language Model (LLM) architecture that is agnostic to the explanation framework and enables user- and context-dependent interactive explanations. We also describe an instantiation of this framework for goal-conflict explanations, which we use to conduct a user study comparing the LLM-powered interaction with a baseline template-based explanation interface.
- Abstract(参考訳): 現実のシーケンシャルな意思決定問題に対する計画生成を自動化する場合、そのゴールは人間のプランナーを置き換えるのではなく、人間の役割がAIプランナーの好みや専門性に応じて導く反復的推論と推論プロセスを促進することである。
この文脈では、ユーザからの質問に応答する説明は、潜在的なソリューションに対する理解を改善し、システムに対する信頼を高めるために不可欠である。
このようなシステムとの自然な対話を可能にするために,説明フレームワークに依存しないマルチエージェント大規模言語モデル(LLM)アーキテクチャを提案し,ユーザとコンテキストに依存した対話的説明を可能にする。
また,LLMを用いた対話とベースラインテンプレートベースの説明インタフェースの比較を行うために,このフレームワークをゴール・コンフリクト・説明のためのインスタンス化についても述べる。
関連論文リスト
- Agentic Reasoning for Large Language Models [122.81018455095999]
推論は推論、問題解決、意思決定の基礎となる基本的な認知プロセスである。
大規模言語モデル(LLM)は、クローズドワールド設定では強力な推論能力を示すが、オープンエンドおよび動的環境では苦労する。
エージェント推論は、連続的な相互作用を計画し、行動し、学習する自律的なエージェントとしてLLMを解釈することでパラダイムシフトを示す。
論文 参考訳(メタデータ) (2026-01-18T18:58:23Z) - HELP: Hierarchical Embodied Language Planner for Household Tasks [75.38606213726906]
複雑なシナリオを扱うエージェントは、堅牢な計画能力に大きく依存する。
広範な言語知識を備えた大規模言語モデルは、この役割を果たすことができる。
LLMをベースとした一組のエージェントからなる階層型エンボディード言語プランナーHELPを提案する。
論文 参考訳(メタデータ) (2025-12-25T15:54:08Z) - Interactive Explanations for Reinforcement-Learning Agents [10.17968794823259]
本稿では,ユーザの関心行動の時間的特性を記述したクエリに基づいて,その環境に作用するエージェントのビデオクリップを提示する対話型説明システムASQ-ITを提案する。
提案手法は,ASQ-ITのユーザインタフェースのクエリを有限トレース(LTLf)上の線形時間論理の断片にマッピングする形式的手法に基づいており,クエリ処理のアルゴリズムはオートマチック理論に基づいている。
論文 参考訳(メタデータ) (2025-04-07T18:00:50Z) - Constraining Participation: Affordances of Feedback Features in Interfaces to Large Language Models [49.266685603250416]
大規模言語モデル(LLM)は、コンピュータ、Webブラウザ、ブラウザベースのインターフェースによるインターネット接続を持つ人なら誰でも利用できるようになった。
本稿では,ChatGPTインタフェースの対話型フィードバック機能によって,LLMへのユーザ参加が期待できるかを検討する。
論文 参考訳(メタデータ) (2024-08-27T13:50:37Z) - Ask-before-Plan: Proactive Language Agents for Real-World Planning [68.08024918064503]
プロアクティブエージェントプランニングでは、ユーザエージェントの会話とエージェント環境のインタラクションに基づいて、言語エージェントが明確化のニーズを予測する必要がある。
本稿では,明確化,実行,計画の3つのエージェントからなる新しいマルチエージェントフレームワーク,Clarification-Execution-Planning(textttCEP)を提案する。
論文 参考訳(メタデータ) (2024-06-18T14:07:28Z) - Hello Again! LLM-powered Personalized Agent for Long-term Dialogue [63.65128176360345]
モデルに依存しない長期対話エージェント(LD-Agent)を導入する。
イベント認識、ペルソナ抽出、応答生成のための3つの独立した調整可能なモジュールが組み込まれている。
LD-Agentの有効性, 汎用性, クロスドメイン性について実験的に検証した。
論文 参考訳(メタデータ) (2024-06-09T21:58:32Z) - Automated Process Planning Based on a Semantic Capability Model and SMT [50.76251195257306]
製造システムと自律ロボットの研究において、機械で解釈可能なシステム機能の仕様に「能力」という用語が用いられる。
セマンティック能力モデルから始めて、AI計画問題を自動的に生成するアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-14T10:37:34Z) - Dialectical Reconciliation via Structured Argumentative Dialogues [14.584998154271512]
我々のフレームワークは,説明者(AIエージェント)と説明者(ヒューマンユーザ)の知識の相違に対処するための弁証的調和を可能にする。
我々のフレームワークは、説明可能性の重要性が重要である領域において、効果的な人間とAIの相互作用を促進するための有望な方向を提供することを示唆している。
論文 参考訳(メタデータ) (2023-06-26T13:39:36Z) - ASQ-IT: Interactive Explanations for Reinforcement-Learning Agents [7.9603223299524535]
本稿では,ユーザが興味のある行動の時間的特性を記述したクエリに基づいて,その環境に作用するエージェントのビデオクリップを提示する対話型ツールASQ-ITを提案する。
提案手法は,ASQ-ITのユーザインタフェースのクエリを有限トレース(LTLf)上の線形時間論理の断片にマッピングする形式的手法に基づいており,クエリ処理のアルゴリズムはオートマチック理論に基づいている。
論文 参考訳(メタデータ) (2023-01-24T11:57:37Z) - Tradeoff-Focused Contrastive Explanation for MDP Planning [7.929642367937801]
実際の計画の応用では、計画エージェントの決定は、競合する目標間の複雑なトレードオフを伴う可能性がある。
エンドユーザは、目的値に基づいて、エージェントが特定の計画ソリューションを決定する理由を理解することは困難である。
本稿では,マルチオブジェクトのMDP計画エージェントが,そのトレードオフの合理性を伝達する手法として,その意思決定を説明できるアプローチを提案する。
論文 参考訳(メタデータ) (2020-04-27T17:17:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。