論文の概要: Agent Planning with World Knowledge Model
- arxiv url: http://arxiv.org/abs/2405.14205v1
- Date: Thu, 23 May 2024 06:03:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-24 18:45:29.221089
- Title: Agent Planning with World Knowledge Model
- Title(参考訳): 世界知識モデルを用いたエージェントプランニング
- Authors: Shuofei Qiao, Runnan Fang, Ningyu Zhang, Yuqi Zhu, Xiang Chen, Shumin Deng, Yong Jiang, Pengjun Xie, Fei Huang, Huajun Chen,
- Abstract要約: エージェント計画を容易にするためにパラメトリック世界知識モデル(WKM)を導入する。
我々はWKMを開発し、グローバルな計画と動的状態の知識を導くために、事前のタスク知識を提供する。
我々は、我々のWKMが視覚障害者の試行錯誤と幻覚的行動の問題を効果的に緩和できることを示すために分析を行った。
- 参考スコア(独自算出の注目度): 88.4897773735576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent endeavors towards directly using large language models (LLMs) as agent models to execute interactive planning tasks have shown commendable results. Despite their achievements, however, they still struggle with brainless trial-and-error in global planning and generating hallucinatory actions in local planning due to their poor understanding of the ''real'' physical world. Imitating humans' mental world knowledge model which provides global prior knowledge before the task and maintains local dynamic knowledge during the task, in this paper, we introduce parametric World Knowledge Model (WKM) to facilitate agent planning. Concretely, we steer the agent model to self-synthesize knowledge from both expert and sampled trajectories. Then we develop WKM, providing prior task knowledge to guide the global planning and dynamic state knowledge to assist the local planning. Experimental results on three complex real-world simulated datasets with three state-of-the-art open-source LLMs, Mistral-7B, Gemma-7B, and Llama-3-8B, demonstrate that our method can achieve superior performance compared to various strong baselines. Besides, we analyze to illustrate that our WKM can effectively alleviate the blind trial-and-error and hallucinatory action issues, providing strong support for the agent's understanding of the world. Other interesting findings include: 1) our instance-level task knowledge can generalize better to unseen tasks, 2) weak WKM can guide strong agent model planning, and 3) unified WKM training has promising potential for further development. Code will be available at https://github.com/zjunlp/WKM.
- Abstract(参考訳): 対話型計画タスクを実行するエージェントモデルとして,大規模言語モデル(LLM)を直接利用するための最近の取り組みは,賞賛に値する結果を示している。
しかし、これらの成果にもかかわらず、「現実」の物理世界に対する理解が乏しいため、グローバルプランニングにおける無脳の試行錯誤や、地域プランニングにおける幻覚的行動の発生に苦慮している。
本稿では,タスク前にグローバルな事前知識を提供し,タスク中に局所的なダイナミックな知識を維持する人間のメンタルワールド知識モデル(WKM)について,エージェント計画を容易にするためにパラメトリックワールド知識モデル(Parametric World Knowledge Model,WKM)を紹介する。
具体的には、エージェントモデルを用いて、専門家とサンプルの軌跡から知識を自己合成する。
そして、WKMを開発し、グローバルプランニングと動的状態知識をガイドし、ローカルプランニングを支援する。
最先端のオープンソースLLM3種, Mistral-7B, Gemma-7B, および Llama-3-8B を用いた実世界の3つの複雑なシミュレーションデータセットの実験結果から, 本手法は各種の強力なベースラインと比較して優れた性能が得られることを示した。
さらに、我々のWKMが視覚障害者の試行錯誤や幻覚的行動の問題を効果的に緩和し、エージェントの世界の理解を強く支援できることを示すために分析を行った。
その他の興味深い発見は以下のとおりである。
1) インスタンスレベルのタスク知識は、見当たらないタスクをより一般化することができる。
2)弱いWKMは強力なエージェントモデルプランニングを導くことができる。
3)統一的なWKM訓練はさらなる発展に有望な可能性を秘めている。
コードはhttps://github.com/zjunlp/WKM.comで入手できる。
関連論文リスト
- AgentGen: Enhancing Planning Abilities for Large Language Model based Agent via Environment and Task Generation [89.68433168477227]
LLM(Large Language Model)ベースのエージェントは注目され、ますます人気が高まっている。
本稿では,LLMの学習指導による計画能力の向上について検討する。
この制限に対処するために,多様な環境の自動合成と段階的な計画課題について検討する。
論文 参考訳(メタデータ) (2024-08-01T17:59:46Z) - WorkArena++: Towards Compositional Planning and Reasoning-based Common Knowledge Work Tasks [85.95607119635102]
大型言語モデル(LLM)は人間のような知性を模倣することができる。
WorkArena++は、Webエージェントの計画、問題解決、論理的/論理的推論、検索、コンテキスト的理解能力を評価するように設計されている。
論文 参考訳(メタデータ) (2024-07-07T07:15:49Z) - KnowAgent: Knowledge-Augmented Planning for LLM-Based Agents [54.09074527006576]
大規模言語モデル(LLM)は複雑な推論タスクにおいて大きな可能性を証明していますが、より高度な課題に取り組むには不十分です。
この不適切さは、主に言語エージェントのアクション知識が組み込まれていないことに起因する。
我々は、明示的な行動知識を取り入れることで、LLMの計画能力を高めるために設計された新しいアプローチであるKnowAgentを紹介する。
論文 参考訳(メタデータ) (2024-03-05T16:39:12Z) - Language Models Meet World Models: Embodied Experiences Enhance Language
Models [48.70726641605047]
大規模言語モデル(LM)は、物理的環境における単純な推論と計画にしばしば苦労する。
我々は、世界モデルでそれらを微調整することで、LMを強化する新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-18T00:35:38Z) - On the Planning Abilities of Large Language Models (A Critical
Investigation with a Proposed Benchmark) [30.223130782579336]
我々は,国際計画コンペティションで採用されるドメインの種類に基づいて,ベンチマークスイートを開発する。
LLMを3つのモードで評価する: 自律型, ループ型, ループ型, ループ型, ループ型である。
以上の結果から, LLMが自律的に実行可能な計画を生成する能力は極めて高く, 平均的な成功率は3%程度に過ぎなかった。
論文 参考訳(メタデータ) (2023-02-13T21:37:41Z) - Human-Timescale Adaptation in an Open-Ended Task Space [56.55530165036327]
大規模にRLエージェントを訓練することで、オープンエンドの新規な3D問題に人間と同じくらい早く適応できる一般的なコンテキスト内学習アルゴリズムが実現可能であることを示す。
我々の研究は、より大規模で適応的なRLエージェントの基礎を築いた。
論文 参考訳(メタデータ) (2023-01-18T15:39:21Z) - Knowledge Prompts: Injecting World Knowledge into Language Models
through Soft Prompts [8.425194277824996]
本稿では,知識ベースからのデータに基づく自己教師付き学習を通じて,ソフトプロンプトを訓練する手法を提案する。
結果として生じるソフトナレッジプロンプト(KP)はタスク独立であり、LMの外部メモリとして機能する。
論文 参考訳(メタデータ) (2022-10-10T14:31:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。