論文の概要: Online Learning of HTN Methods for integrated LLM-HTN Planning
- arxiv url: http://arxiv.org/abs/2511.12901v1
- Date: Mon, 17 Nov 2025 02:46:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.620598
- Title: Online Learning of HTN Methods for integrated LLM-HTN Planning
- Title(参考訳): LLM-HTN統合計画のためのHTN手法のオンライン学習
- Authors: Yuesheng Xu, Hector Munoz-Avila,
- Abstract要約: メソッドはタスクをサブタスクに分割するタイミングと方法を示す。
ChatHTNはChatGPTに問い合わせ、タスクをプリミティブなタスクに分解する。
- 参考スコア(独自算出の注目度): 6.397859902315962
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present online learning of Hierarchical Task Network (HTN) methods in the context of integrated HTN planning and LLM-based chatbots. Methods indicate when and how to decompose tasks into subtasks. Our method learner is built on top of the ChatHTN planner. ChatHTN queries ChatGPT to generate a decomposition of a task into primitive tasks when no applicable method for the task is available. In this work, we extend ChatHTN. Namely, when ChatGPT generates a task decomposition, ChatHTN learns from it, akin to memoization. However, unlike memoization, it learns a generalized method that applies not only to the specific instance encountered, but to other instances of the same task. We conduct experiments on two domains and demonstrate that our online learning procedure reduces the number of calls to ChatGPT while solving at least as many problems, and in some cases, even more.
- Abstract(参考訳): 階層型タスクネットワーク(HTN)のオンライン学習を,統合型HTN計画とLLMベースのチャットボットの文脈で行う。
メソッドはタスクをサブタスクに分割するタイミングと方法を示す。
方法学習者はChatHTNプランナー上に構築される。
ChatHTNはChatGPTに問い合わせて、タスクに適用可能なメソッドが存在しない場合に、タスクをプリミティブなタスクに分解する。
この作業では、ChatHTNを拡張します。
すなわち、ChatGPTがタスク分解を生成すると、ChatHTNはメモ化と同様に、そこから学習する。
しかし、メモ化とは違って、遭遇した特定のインスタンスだけでなく、同じタスクの他のインスタンスにも適用される一般化された方法を学ぶ。
2つの領域で実験を行い、我々のオンライン学習手順がChatGPTへの呼び出し数を減らし、少なくとも多くの問題を解き、場合によってはさらに多くの問題を解くことを実証する。
関連論文リスト
- ChatHTN: Interleaving Approximate (LLM) and Symbolic HTN Planning [1.2767281330110625]
本稿では,階層型タスクネットワーク(HTN)プランナであるChatHTNを紹介する。
結果として得られた階層構造は、記号的HTN計画によって生成されたタスク分解とChatGPTによって生成されたタスク分解をインターリーブする。
論文 参考訳(メタデータ) (2025-05-17T03:53:08Z) - Automatically Learning HTN Methods from Landmarks [0.16874375111244325]
CURRICULAMAは、学習プロセスを完全に自動化するHTNメソッド学習アルゴリズムである。
ランドマーク分析を使用して注釈付きタスクを構成し、カリキュラム学習を活用して、メソッドの学習をよりシンプルからより複雑なものに順序付けする。
我々はCURRICULAMAの音質を証明し、HTN-MAKERに対する完全な手法の学習において、ほぼ同様の収束率を持つことを実験的に示す。
論文 参考訳(メタデータ) (2024-04-09T14:03:38Z) - Is ChatGPT the Ultimate Programming Assistant -- How far is it? [11.943927095071105]
ChatGPTは非常に注目されており、ソースコードを議論するためのボットとして使用できる。
完全自動プログラミングアシスタントとしてのChatGPTの可能性について実証的研究を行った。
論文 参考訳(メタデータ) (2023-04-24T09:20:13Z) - When do you need Chain-of-Thought Prompting for ChatGPT? [87.45382888430643]
CoT(Chain-of-Thought)は,大規模言語モデル(LLM)から複雑な多段階推論を効果的に引き出すことができる
CoT がChatGPT などの最近の命令微調整 (IFT) LLM に対してまだ有効であるかどうかは不明である。
論文 参考訳(メタデータ) (2023-04-06T17:47:29Z) - A Multitask, Multilingual, Multimodal Evaluation of ChatGPT on
Reasoning, Hallucination, and Interactivity [79.12003701981092]
8種類の共通NLPアプリケーションタスクをカバーする23のデータセットを用いてChatGPTの広範な技術的評価を行う。
これらのデータセットと、新たに設計されたマルチモーダルデータセットに基づいて、ChatGPTのマルチタスク、マルチリンガル、マルチモーダルの側面を評価する。
ChatGPTの精度は平均63.41%で、論理的推論、非テキスト的推論、コモンセンス推論の10の異なる推論カテゴリで正確である。
論文 参考訳(メタデータ) (2023-02-08T12:35:34Z) - Is ChatGPT a General-Purpose Natural Language Processing Task Solver? [113.22611481694825]
大規模言語モデル(LLM)は、さまざまな自然言語処理(NLP)タスクをゼロショットで実行できることを実証している。
近年、ChatGPTのデビューは自然言語処理(NLP)コミュニティから大きな注目を集めている。
ChatGPTが多くのNLPタスクをゼロショットで実行できるジェネラリストモデルとして機能するかどうかはまだ分かっていない。
論文 参考訳(メタデータ) (2023-02-08T09:44:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。