論文の概要: Conversational Planning for Personal Plans
- arxiv url: http://arxiv.org/abs/2502.19500v1
- Date: Wed, 26 Feb 2025 19:04:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-28 14:59:41.120255
- Title: Conversational Planning for Personal Plans
- Title(参考訳): 個人計画のための対話型プランニング
- Authors: Konstantina Christakopoulou, Iris Qu, John Canny, Andrew Goodridge, Cj Adams, Minmin Chen, Maja Matarić,
- Abstract要約: 大きな言語モデル(LLM)は、現実の目標や完成までに長い時間を要するタスクを支援するために、ますます使われています。
本研究では,LLMがエージェントの次のマクロアクションを決定するメタコントローラとして機能する新しいアーキテクチャを探索する。
このパラダイムが、学術的・非学術的なタスクの指導から、個人の健康計画のための会話型コーチングまで、どのようなシナリオに応用できるかを示す。
- 参考スコア(独自算出の注目度): 4.490065350323821
- License:
- Abstract: The language generation and reasoning capabilities of large language models (LLMs) have enabled conversational systems with impressive performance in a variety of tasks, from code generation, to composing essays, to passing STEM and legal exams, to a new paradigm for knowledge search. Besides those short-term use applications, LLMs are increasingly used to help with real-life goals or tasks that take a long time to complete, involving multiple sessions across days, weeks, months, or even years. Thus to enable conversational systems for long term interactions and tasks, we need language-based agents that can plan for long horizons. Traditionally, such capabilities were addressed by reinforcement learning agents with hierarchical planning capabilities. In this work, we explore a novel architecture where the LLM acts as the meta-controller deciding the agent's next macro-action, and tool use augmented LLM-based option policies execute the selected macro-action. We instantiate this framework for a specific set of macro-actions enabling adaptive planning for users' personal plans through conversation and follow-up questions collecting user feedback. We show how this paradigm can be applicable in scenarios ranging from tutoring for academic and non-academic tasks to conversational coaching for personal health plans.
- Abstract(参考訳): 大規模言語モデル(LLM)の言語生成と推論能力により、コード生成からエッセイの作成、STEMや法定試験の合格、知識検索の新しいパラダイムに至るまで、様々なタスクにおいて優れたパフォーマンスを持つ会話システムを実現した。
これらの短期的利用アプリケーション以外にも、LLMは日々、数週間、数ヶ月、あるいは数年にわたる複数のセッションを含む、現実の目標や完了に長い時間を要するタスクを支援するために、ますます使われています。
したがって、長期的な対話やタスクのための対話システムを実現するためには、長い地平線を計画できる言語ベースのエージェントが必要である。
伝統的に、そのような能力は階層的な計画能力を持つ強化学習エージェントによって対処された。
本研究では,LLMがエージェントの次のマクロアクションを決定するメタコントローラとして機能する新しいアーキテクチャについて検討する。
このフレームワークを,ユーザからのフィードバックを収集する会話やフォローアップ質問を通じて,ユーザの個人計画に適応的な計画立案を可能にする,マクロアクションの特定のセットに対してインスタンス化する。
このパラダイムが、学術的・非学術的なタスクの指導から、個人の健康計画のための会話型コーチングまで、どのようなシナリオに応用できるかを示す。
関連論文リスト
- Zero-shot Robotic Manipulation with Language-guided Instruction and Formal Task Planning [16.89900521727246]
本稿では,言語誘導型シンボリックタスク計画(LM-SymOpt)フレームワークの最適化を提案する。
大規模言語モデルからの世界的知識と公式な推論を組み合わせた最初のエキスパートフリーな計画フレームワークです。
実験の結果,LM-SymOpt は既存の LLM ベースの計画手法よりも優れていた。
論文 参考訳(メタデータ) (2025-01-25T13:33:22Z) - Large Language Models are Good Multi-lingual Learners : When LLMs Meet Cross-lingual Prompts [5.520335305387487]
本稿では,MLプロンプトという新しいプロンプト戦略を提案する。
MLPromptは、LLMが他の言語に追従するのに苦労するエラーを起こしやすいルールを翻訳する。
本稿では,MLPromptを構造化データ生成の自動チェック機構に統合するフレームワークと,テキストからMIPインスタンスへの特定のケーススタディを提案する。
論文 参考訳(メタデータ) (2024-09-17T10:33:27Z) - Can Long-Context Language Models Subsume Retrieval, RAG, SQL, and More? [54.667202878390526]
長文言語モデル(LCLM)は、従来、検索システムやデータベースといった外部ツールに依存していたタスクへのアプローチに革命をもたらす可能性がある。
実世界のタスクのベンチマークであるLOFTを導入し、文脈内検索と推論においてLCLMの性能を評価するために設計された数百万のトークンを出力する。
以上の結果からLCLMは,これらのタスクを明示的に訓練したことがないにも関わらず,最先端の検索システムやRAGシステムと競合する驚くべき能力を示した。
論文 参考訳(メタデータ) (2024-06-19T00:28:58Z) - Ask-before-Plan: Proactive Language Agents for Real-World Planning [68.08024918064503]
プロアクティブエージェントプランニングでは、ユーザエージェントの会話とエージェント環境のインタラクションに基づいて、言語エージェントが明確化のニーズを予測する必要がある。
本稿では,明確化,実行,計画の3つのエージェントからなる新しいマルチエージェントフレームワーク,Clarification-Execution-Planning(textttCEP)を提案する。
論文 参考訳(メタデータ) (2024-06-18T14:07:28Z) - GOLF: Goal-Oriented Long-term liFe tasks supported by human-AI collaboration [4.414024076524777]
ChatGPTと類似の大規模言語モデル(LLM)は、人間とAIの相互作用と情報探索プロセスに革命をもたらした。
本研究は,LLM機能の範囲を日常的なタスク自動化を超えて拡張し,長期的,重要なライフタスクのユーザを支援する。
論文 参考訳(メタデータ) (2024-03-25T18:25:10Z) - On the Multi-turn Instruction Following for Conversational Web Agents [83.51251174629084]
本稿では,ユーザと環境の両方で複数回にまたがる高度なインタラクションを必要とする,対話型Webナビゲーションの新たなタスクを紹介する。
本稿では,メモリ利用と自己回帰技術を用いた自己反射型メモリ拡張計画(Self-MAP)を提案する。
論文 参考訳(メタデータ) (2024-02-23T02:18:12Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - Learning adaptive planning representations with natural language
guidance [90.24449752926866]
本稿では,タスク固有の計画表現を自動構築するフレームワークであるAdaについて述べる。
Adaは、プランナー互換の高レベルアクション抽象化と、特定の計画タスク領域に適応した低レベルコントローラのライブラリを対話的に学習する。
論文 参考訳(メタデータ) (2023-12-13T23:35:31Z) - LMRL Gym: Benchmarks for Multi-Turn Reinforcement Learning with Language
Models [56.25156596019168]
本稿では,LMRL-Gymベンチマークを用いて,大規模言語モデル(LLM)のマルチターンRLの評価を行う。
我々のベンチマークは8つの異なる言語タスクで構成されており、複数ラウンドの言語相互作用が必要であり、オープンエンド対話やテキストゲームにおける様々なタスクをカバーする。
論文 参考訳(メタデータ) (2023-11-30T03:59:31Z) - Understanding the Capabilities of Large Language Models for Automated
Planning [24.37599752610625]
この研究は、複雑な計画問題の解決におけるLLMの能力に光を当てようとしている。
この文脈で LLM を使用するための最も効果的なアプローチに関する洞察を提供する。
論文 参考訳(メタデータ) (2023-05-25T15:21:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。