論文の概要: $How^{2}$: How to learn from procedural How-to questions
- arxiv url: http://arxiv.org/abs/2510.11144v1
- Date: Mon, 13 Oct 2025 08:35:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.270279
- Title: $How^{2}$: How to learn from procedural How-to questions
- Title(参考訳): How^{2}$: 手続き的なハウツー質問から学ぶ方法
- Authors: Gautier Dagan, Frank Keller, Alex Lascarides,
- Abstract要約: エージェントがハウツー質問をし、回答を保存し、対話型環境での生涯学習のために再利用することを可能にする、メモリエージェントフレームワークである$How2$を紹介した。
我々は、インベントリアイテムを操作することで、エージェントが組み立てタスクを完了しなければならないMinecraftの工芸環境であるPlancraftにおいて、我々のアプローチを評価する。
- 参考スコア(独自算出の注目度): 17.933868218091856
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An agent facing a planning problem can use answers to how-to questions to reduce uncertainty and fill knowledge gaps, helping it solve both current and future tasks. However, their open ended nature, where valid answers to "How do I X?" range from executable actions to high-level descriptions of X's sub-goals, makes them challenging for AI agents to ask, and for AI experts to answer, in ways that support efficient planning. We introduce $How^{2}$, a memory agent framework that enables agents to ask how-to questions, store the answers, and reuse them for lifelong learning in interactive environments. We evaluate our approach in Plancraft, a Minecraft crafting environment, where agents must complete an assembly task by manipulating inventory items. Using teacher models that answer at varying levels of abstraction, from executable action sequences to high-level subgoal descriptions, we show that lifelong learning agents benefit most from answers that are abstracted and decoupled from the current state. $How^{2}$ offers a way for LLM-based agents to improve their planning capabilities over time by asking questions in interactive environments.
- Abstract(参考訳): 計画問題に直面しているエージェントは、ハウツー質問に対する回答を使用して、不確実性を低減し、知識ギャップを埋め、現在のタスクと将来のタスクの両方を解決するのに役立つ。
しかし、"How do I X?"に対する有効な回答は、実行可能なアクションから、Xのサブゴールのハイレベルな説明まで、AIエージェントが質問し、AI専門家が効率的な計画を支援する方法で回答することを困難にしている。
エージェントがハウツー質問をし、回答を保存し、対話型環境での生涯学習のためにそれらを再利用することを可能にする、メモリエージェントフレームワークであるHow^{2}$を紹介した。
我々は、インベントリアイテムを操作することで、エージェントが組み立てタスクを完了しなければならないMinecraftの工芸環境であるPlancraftにおいて、我々のアプローチを評価する。
実行可能なアクションシーケンスからハイレベルなサブゴナル記述まで,さまざまな抽象化レベルに回答する教師モデルを用いて,生涯学習エージェントが,現在の状態から抽象化され分離された回答から最も恩恵を受けることを示す。
How^{2}$は、LLMベースのエージェントが対話的な環境で質問することで、時間とともに計画能力を改善する方法を提供する。
関連論文リスト
- Multi-Agents Based on Large Language Models for Knowledge-based Visual Question Answering [6.6897007888321465]
知識に基づく視覚質問応答のための投票フレームワークを提案する。
チーム内のさまざまなレベルのスタッフをシミュレートする3つのエージェントを設計し、利用可能なツールをレベルに応じて割り当てます。
OK-VQA と A-OKVQA の実験により,本手法は,それぞれ2.2 と 1.0 の他のベースラインよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-12-24T11:24:56Z) - KnowAgent: Knowledge-Augmented Planning for LLM-Based Agents [52.34892973785117]
大規模言語モデル(LLM)は複雑な推論タスクにおいて大きな可能性を証明していますが、より高度な課題に取り組むには不十分です。
この不適切さは、主に言語エージェントのアクション知識が組み込まれていないことに起因する。
我々は、明示的な行動知識を取り入れることで、LLMの計画能力を高めるために設計された新しいアプローチであるKnowAgentを紹介する。
論文 参考訳(メタデータ) (2024-03-05T16:39:12Z) - Successive Prompting for Decomposing Complex Questions [50.00659445976735]
最近の研究は、大規模言語モデル(LM)の機能を活用して、数ショットで複雑な質問応答を行う。
そこでは、複雑なタスクを単純なタスクに繰り返し分解し、それを解決し、最終解を得るまでプロセスを繰り返します。
我々の最良のモデル(逐次プロンプト付き)は、DROPデータセットの数ショットバージョンにおいて、5%の絶対F1の改善を実現します。
論文 参考訳(メタデータ) (2022-12-08T06:03:38Z) - Ask Before You Act: Generalising to Novel Environments by Asking
Questions [0.0]
本稿では,RLエージェントが自然言語の質問を学習し,その環境を理解するためのツールとして活用する能力について検討する。
私たちは、このエージェントに"yes-no"質問を全知のOracleに尋ねる機能を提供することで、これを実現しています。
本研究では,質問できないベースラインエージェントと比較して,一般化性能が著しく向上するのを観察する。
論文 参考訳(メタデータ) (2022-09-10T13:17:21Z) - Asking for Knowledge: Training RL Agents to Query External Knowledge
Using Language [121.56329458876655]
グリッドワールドベースのQ-BabyAIとテキストベースのQ-TextWorldの2つの新しい環境を紹介した。
本稿では,意味のある知識を問うための言語コマンドを生成する「知識の探索(AFK)」エージェントを提案する。
論文 参考訳(メタデータ) (2022-05-12T14:20:31Z) - Learning When and What to Ask: a Hierarchical Reinforcement Learning
Framework [17.017688226277834]
我々は、人間から追加情報を要求するタイミングを決定するための階層的な強化学習フレームワークを定式化した。
シミュレーションによるナビゲーション問題の結果から,本フレームワークの有効性が示された。
論文 参考訳(メタデータ) (2021-10-14T01:30:36Z) - Retrieve, Program, Repeat: Complex Knowledge Base Question Answering via
Alternate Meta-learning [56.771557756836906]
本稿では,弱い監督からプログラマと交互に検索モデルを自動的に学習する手法を提案する。
本システムでは,知識ベースに対する複雑な質問応答を行う大規模タスクにおいて,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-10-29T18:28:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。