論文の概要: SynWorld: Virtual Scenario Synthesis for Agentic Action Knowledge Refinement
- arxiv url: http://arxiv.org/abs/2504.03561v1
- Date: Fri, 04 Apr 2025 16:10:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-14 16:12:26.862376
- Title: SynWorld: Virtual Scenario Synthesis for Agentic Action Knowledge Refinement
- Title(参考訳): SynWorld: エージェントアクション知識リファインメントのための仮想シナリオ合成
- Authors: Runnan Fang, Xiaobin Wang, Yuan Liang, Shuofei Qiao, Jialong Wu, Zekun Xi, Ningyu Zhang, Yong Jiang, Pengjun Xie, Fei Huang, Huajun Chen,
- Abstract要約: SynWorldは、エージェントが自律的に環境を探索し、最適化し、アクションに対する理解を深めることを可能にするフレームワークである。
実験の結果,SynWorldは新しい環境下での行動知識の学習に効果的で汎用的なアプローチであることを実証した。
- 参考スコア(独自算出の注目度): 81.30121762971473
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the interaction between agents and their environments, agents expand their capabilities by planning and executing actions. However, LLM-based agents face substantial challenges when deployed in novel environments or required to navigate unconventional action spaces. To empower agents to autonomously explore environments, optimize workflows, and enhance their understanding of actions, we propose SynWorld, a framework that allows agents to synthesize possible scenarios with multi-step action invocation within the action space and perform Monte Carlo Tree Search (MCTS) exploration to effectively refine their action knowledge in the current environment. Our experiments demonstrate that SynWorld is an effective and general approach to learning action knowledge in new environments. Code is available at https://github.com/zjunlp/SynWorld.
- Abstract(参考訳): エージェントと環境の間のインタラクションでは、エージェントはアクションの計画と実行によって能力を拡張する。
しかし、LSMをベースとしたエージェントは、新しい環境に配備される場合や、非伝統的なアクション空間をナビゲートする必要がある場合、重大な課題に直面している。
エージェントが自律的に環境を探索し、ワークフローを最適化し、アクションの理解を高めるために、エージェントがアクション空間内で多段階のアクション呼び出しで可能なシナリオを合成し、Monte Carlo Tree Search(MCTS)探索を実行し、現在の環境におけるアクション知識を効果的に洗練するためのフレームワークであるSynWorldを提案する。
実験の結果,SynWorldは新しい環境下での行動知識の学習に効果的で汎用的なアプローチであることを実証した。
コードはhttps://github.com/zjunlp/SynWorldで入手できる。
関連論文リスト
- Inter-environmental world modeling for continuous and compositional dynamics [7.01176359680407]
環境全体にわたってシミュレートする継続的潜在アクション表現を学習する、教師なしのフレームワークであるLie Actionを紹介した。
WLAはビデオフレームのみを用いてトレーニングが可能であり、アクションラベルが最小でも無ければ、新しいアクションセットを持つ新しい環境に迅速に適応できることを実証する。
論文 参考訳(メタデータ) (2025-03-13T00:02:54Z) - DynaSaur: Large Language Agents Beyond Predefined Actions [108.75187263724838]
既存のLLMエージェントシステムは、通常、各ステップで固定セットと事前定義されたセットからアクションを選択する。
動作の動的生成と構成をオンラインで実現するLLMエージェントフレームワークを提案する。
GAIAベンチマーク実験により, このフレームワークは柔軟性が向上し, 従来の手法よりも優れていたことが確認された。
論文 参考訳(メタデータ) (2024-11-04T02:08:59Z) - LEGENT: Open Platform for Embodied Agents [60.71847900126832]
LEGENTはLarge Language Models (LLM) とLarge Multimodal Models (LMM) を用いたエンボディエージェントを開発するためのオープンでスケーラブルなプラットフォームである。
LEGENTはリッチでインタラクティブな3D環境を提供し、コミュニケーション可能でアクション可能なエージェントをユーザフレンドリーなインターフェースと組み合わせている。
実験では、EGENT生成データに基づいて訓練された胚性視覚言語モデルが、エンボディタスクにおいてGPT-4Vを超える。
論文 参考訳(メタデータ) (2024-04-28T16:50:12Z) - Cooperate or Collapse: Emergence of Sustainable Cooperation in a Society of LLM Agents [101.17919953243107]
GovSimは、大規模言語モデル(LLM)における戦略的相互作用と協調的意思決定を研究するために設計された生成シミュレーションプラットフォームである。
最強のLSMエージェントを除く全てのエージェントは、GovSimの持続的均衡を達成することができず、生存率は54%以下である。
道徳的思考の理論である「大学化」に基づく推論を活用するエージェントは、持続可能性を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-04-25T15:59:16Z) - WorldCoder, a Model-Based LLM Agent: Building World Models by Writing Code and Interacting with the Environment [11.81398773711566]
我々は,環境とのインタラクションに基づいて,世界の知識を表現したPythonプログラムを構築するモデルベースエージェントを提案する。
我々は,グリッドワールド,タスクプランニングにおいて,我々のアプローチは深層RLに比べてサンプリング効率が良く,ReActスタイルのエージェントよりも計算効率が良く,コードを編集することで,その知識を環境間で伝達することができることを研究した。
論文 参考訳(メタデータ) (2024-02-19T16:39:18Z) - Agent AI: Surveying the Horizons of Multimodal Interaction [83.18367129924997]
エージェントAI(Agent AI)とは、視覚刺激や言語入力、その他の環境データを知覚できる対話型システムである。
我々は,バーチャルリアリティやシミュレートされたシーンを容易に作成し,仮想環境内に具体化されたエージェントと対話できる未来を構想する。
論文 参考訳(メタデータ) (2024-01-07T19:11:18Z) - Octopus: Embodied Vision-Language Programmer from Environmental Feedback [58.04529328728999]
身体視覚言語モデル(VLM)は多モード認識と推論において大きな進歩を遂げた。
このギャップを埋めるために、我々は、計画と操作を接続する媒体として実行可能なコード生成を使用する、具体化された視覚言語プログラマであるOctopusを紹介した。
Octopusは、1)エージェントの視覚的およびテキスト的タスクの目的を正確に理解し、2)複雑なアクションシーケンスを定式化し、3)実行可能なコードを生成するように設計されている。
論文 参考訳(メタデータ) (2023-10-12T17:59:58Z) - AgentVerse: Facilitating Multi-Agent Collaboration and Exploring
Emergent Behaviors [93.38830440346783]
本稿では,その構成をより高機能なシステムとして協調的に調整できるマルチエージェントフレームワークを提案する。
実験により,フレームワークが単一エージェントより優れたマルチエージェントグループを効果的に展開できることが実証された。
これらの振舞いの観点から、我々は、ポジティブなものを活用し、ネガティブなものを緩和し、マルチエージェントグループの協調可能性を改善するためのいくつかの戦略について議論する。
論文 参考訳(メタデータ) (2023-08-21T16:47:11Z) - AI planning in the imagination: High-level planning on learned abstract
search spaces [68.75684174531962]
我々は,エージェントが訓練中に学習する抽象的な検索空間において,エージェントが計画することを可能にする,PiZeroと呼ばれる新しい手法を提案する。
本研究では,旅行セールスマン問題,ソコバン問題,2048年,施設立地問題,パックマン問題など,複数の分野で評価を行った。
論文 参考訳(メタデータ) (2023-08-16T22:47:16Z) - Motion Planner Augmented Reinforcement Learning for Robot Manipulation
in Obstructed Environments [22.20810568845499]
本稿では,RLエージェントの動作空間を移動プランナの長期計画能力で拡張する動きプランナ拡張RL(MoPA-RL)を提案する。
動作の大きさに基づいて,動作を直接実行し,動作プランナを起動するアプローチを円滑に移行する。
実験により、MoPA-RLは学習効率を高め、より高速な探索をもたらし、より安全なポリシーをもたらすことが示されている。
論文 参考訳(メタデータ) (2020-10-22T17:59:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。