論文の概要: Graph Neural Networks with Model-based Reinforcement Learning for Multi-agent Systems
- arxiv url: http://arxiv.org/abs/2407.09249v2
- Date: Sun, 29 Sep 2024 13:18:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-01 21:59:09.227908
- Title: Graph Neural Networks with Model-based Reinforcement Learning for Multi-agent Systems
- Title(参考訳): 多エージェントシステムのためのモデルベース強化学習を用いたグラフニューラルネットワーク
- Authors: Hanxiao Chen,
- Abstract要約: マルチエージェントシステム(MAS)は、マシンインテリジェンスと高度な応用を探索する上で重要な役割を果たしている。
モデルベース強化学習を用いた状態空間グラフニューラルネットワークを用いて,特定のMASミッションに対処する"GNN for MBRL"モデルを提案する。
具体的には,まずGNNモデルを用いて,複数のエージェントの将来の状態や軌道を予測し,次にCEM(Cross-Entropy Method)最適化モデル予測制御を適用して,エゴエージェント計画動作を支援し,特定のMASタスクの達成に成功した。
- 参考スコア(独自算出の注目度): 11.893324664457548
- License:
- Abstract: Multi-agent systems (MAS) constitute a significant role in exploring machine intelligence and advanced applications. In order to deeply investigate complicated interactions within MAS scenarios, we originally propose "GNN for MBRL" model, which utilizes a state-spaced Graph Neural Networks with Model-based Reinforcement Learning to address specific MAS missions (e.g., Billiard-Avoidance, Autonomous Driving Cars). In detail, we firstly used GNN model to predict future states and trajectories of multiple agents, then applied the Cross-Entropy Method (CEM) optimized Model Predictive Control to assist the ego-agent planning actions and successfully accomplish certain MAS tasks.
- Abstract(参考訳): マルチエージェントシステム(MAS)は、マシンインテリジェンスと高度な応用を探索する上で重要な役割を果たしている。
モデルベース強化学習を用いた状態空間グラフニューラルネットワークを用いて,MASのミッション(例えばビリヤード回避,自律走行車)に対処する。
具体的には,まずGNNモデルを用いて,複数のエージェントの将来の状態や軌道を予測し,次にCEM(Cross-Entropy Method)最適化モデル予測制御を適用して,エゴエージェント計画動作を支援し,特定のMASタスクの達成に成功した。
関連論文リスト
- An Interactive Agent Foundation Model [49.77861810045509]
本稿では,AIエージェントを訓練するための新しいマルチタスクエージェントトレーニングパラダイムを用いた対話型エージェント基礎モデルを提案する。
トレーニングパラダイムは、視覚マスク付きオートエンコーダ、言語モデリング、次世代の予測など、多様な事前学習戦略を統一する。
私たちは、ロボティクス、ゲームAI、ヘルスケアという3つの異なる領域でフレームワークのパフォーマンスを実演します。
論文 参考訳(メタデータ) (2024-02-08T18:58:02Z) - MASP: Scalable GNN-based Planning for Multi-Agent Navigation [17.788592987873905]
エージェント数の多いナビゲーションタスクのための目標条件付き階層型プランナを提案する。
また、グラフニューラルネットワーク(GNN)を活用し、エージェントと目標間の相互作用をモデル化し、目標達成を改善する。
その結果、MASPは古典的な計画ベースの競合やRLベースラインよりも優れていた。
論文 参考訳(メタデータ) (2023-12-05T06:05:04Z) - Multitask Adaptation by Retrospective Exploration with Learned World
Models [77.34726150561087]
本稿では,タスク非依存ストレージから取得したMBRLエージェントのトレーニングサンプルを提供するRAMaというメタ学習型アドレッシングモデルを提案する。
このモデルは、期待されるエージェントのパフォーマンスを最大化するために、ストレージから事前のタスクを解く有望な軌道を選択することで訓練される。
論文 参考訳(メタデータ) (2021-10-25T20:02:57Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - Graph Neural Networks for Decentralized Multi-Robot Submodular Action
Selection [101.38634057635373]
ロボットがチームサブモジュールの目的を最大化するために共同で行動を選択する必要があるアプリケーションに焦点を当てる。
分散通信によるサブモジュール化に向けた汎用学習アーキテクチャを提案する。
大規模ロボットネットワークによるアクティブターゲットカバレッジのシナリオにおいて、GNNベースの学習アプローチのパフォーマンスを実証します。
論文 参考訳(メタデータ) (2021-05-18T15:32:07Z) - Model-based versus Model-free Deep Reinforcement Learning for Autonomous
Racing Cars [46.64253693115981]
本稿では,モデルに基づく深層強化学習エージェントが現実世界の自律車両制御タスクに一般化する方法について検討する。
本稿では,想像力で学習可能なモデルベースエージェント,パフォーマンス,サンプル効率,タスク完了,一般化に関して,モデルフリーエージェントを実質的に上回っていることを示す。
論文 参考訳(メタデータ) (2021-03-08T17:15:23Z) - A Driving Behavior Recognition Model with Bi-LSTM and Multi-Scale CNN [59.57221522897815]
運転行動認識のための軌道情報に基づくニューラルネットワークモデルを提案する。
提案手法を公開BLVDデータセット上で評価し,満足な性能を実現する。
論文 参考訳(メタデータ) (2021-03-01T06:47:29Z) - Message-Aware Graph Attention Networks for Large-Scale Multi-Robot Path
Planning [12.988435681305281]
グラフニューラルネットワーク(GNN)は、分散マルチエージェントシステムにおける通信ポリシの学習能力から人気を集めている。
我々は、メッセージ依存の注意を喚起するための新しいメカニズムを取り入れることで、GNNをマルチエージェントパス計画に活用する以前の作業を拡張した。
我々のメッセージ対応グラフ注意neTwork(MAGAT)は、近隣のロボットから受信したメッセージにおける特徴の相対的重要性を決定するキークエリライクなメカニズムに基づいている。
論文 参考訳(メタデータ) (2020-11-26T10:37:13Z) - Single and Multi-Agent Deep Reinforcement Learning for AI-Enabled
Wireless Networks: A Tutorial [29.76086936463468]
このチュートリアルは、AI対応の6Gネットワークのための深層マルチエージェント強化学習(MARL)に焦点を当て、DRL(Deep Reinforcement Learning)の役割に焦点を当てている。
本稿では, 単エージェント RL と MARL の数学的枠組みについて概説する。
モデルベースRL(MBRL)や協調MARLなどのRLアルゴリズムを選択的に記述する。
論文 参考訳(メタデータ) (2020-11-06T22:12:40Z) - Trajectory-wise Multiple Choice Learning for Dynamics Generalization in
Reinforcement Learning [137.39196753245105]
本稿では,動的一般化のためのマルチヘッドダイナミックスモデルを学習するモデルベース強化学習アルゴリズムを提案する。
文脈学習は,過去の経験から得られる動的情報からコンテキスト潜在ベクトルにエンコードする。
提案手法は,最先端のRL法と比較して,様々な制御タスクにおいて優れたゼロショット一般化性能を示す。
論文 参考訳(メタデータ) (2020-10-26T03:20:42Z) - Fast Online Adaptation in Robotics through Meta-Learning Embeddings of
Simulated Priors [3.4376560669160385]
現実の世界では、ロボットはモーターの故障から岩の多い地形で自分自身を見つけるまで、あらゆる状況に遭遇するかもしれない。
FAMLEにより、ロボットはベースラインよりもはるかに少ない時間で、新たな損傷に適応できることを示す。
論文 参考訳(メタデータ) (2020-03-10T12:37:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。