論文の概要: Multi-Agent Reinforcement Learning for Pragmatic Communication and
Control
- arxiv url: http://arxiv.org/abs/2302.14399v1
- Date: Tue, 28 Feb 2023 08:30:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-01 17:28:52.235830
- Title: Multi-Agent Reinforcement Learning for Pragmatic Communication and
Control
- Title(参考訳): 実用的コミュニケーションと制御のためのマルチエージェント強化学習
- Authors: Federico Mason and Federico Chiariotti and Andrea Zanella and Petar
Popovski
- Abstract要約: 本稿では,目標指向通信とネットワーク制御を組み合わせた統合設計を単一最適化モデルとして提案する。
通信システムと制御システムの合同訓練は、全体的な性能を著しく向上させることができる。
- 参考スコア(独自算出の注目度): 40.11766545693947
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The automation of factories and manufacturing processes has been accelerating
over the past few years, boosted by the Industry 4.0 paradigm, including
diverse scenarios with mobile, flexible agents. Efficient coordination between
mobile robots requires reliable wireless transmission in highly dynamic
environments, often with strict timing requirements. Goal-oriented
communication is a possible solution for this problem: communication decisions
should be optimized for the target control task, providing the information that
is most relevant to decide which action to take. From the control perspective,
networked control design takes the communication impairments into account in
its optmization of physical actions. In this work, we propose a joint design
that combines goal-oriented communication and networked control into a single
optimization model, an extension of a multiagent POMDP which we call
Cyber-Physical POMDP (CP-POMDP). The model is flexible enough to represent
several swarm and cooperative scenarios, and we illustrate its potential with
two simple reference scenarios with a single agent and a set of supporting
sensors. Joint training of the communication and control systems can
significantly improve the overall performance, particularly if communication is
severely constrained, and can even lead to implicit coordination of
communication actions.
- Abstract(参考訳): 工場や製造プロセスの自動化はここ数年で加速しており、モバイル、フレキシブルエージェントによる多様なシナリオを含む業界4.0パラダイムによって加速されている。
移動ロボット間の効率的な協調は、しばしば厳しいタイミングで、非常にダイナミックな環境で信頼性の高い無線伝送を必要とする。
目標指向のコミュニケーションは、この問題に対して可能な解決策である: コミュニケーション決定は、ターゲット制御タスクに最適化されるべきであり、どのアクションをとるかを決めるのに最も関係のある情報を提供する。
制御の観点からは、ネットワーク制御設計は物理行動の最適化において通信障害を考慮に入れている。
本研究では,目標指向通信とネットワーク制御を組み合わせた協調設計を,CP-POMDP(Cyber-Physical POMDP)と呼ばれるマルチエージェントPOMDPの拡張として提案する。
このモデルは,複数のSwarmおよび協調シナリオを表現するのに十分柔軟であり,単一のエージェントと支持センサのセットによる2つの単純な参照シナリオでその可能性を説明する。
コミュニケーションと制御システムの合同トレーニングは、コミュニケーションが厳しく制約され、コミュニケーションアクションの暗黙の調整につながる場合、全体的なパフォーマンスを著しく改善することができる。
関連論文リスト
- Communication Learning in Multi-Agent Systems from Graph Modeling Perspective [62.13508281188895]
本稿では,エージェント間の通信アーキテクチャを学習可能なグラフとして概念化する手法を提案する。
本稿では,各エージェントに対して時間的ゲーティング機構を導入し,ある時間に共有情報を受信するかどうかの動的決定を可能にする。
論文 参考訳(メタデータ) (2024-11-01T05:56:51Z) - Communication-Control Codesign for Large-Scale Wireless Networked Control Systems [80.30532872347668]
無線ネットワーク制御システム(Wireless Networked Control Systems, WNCS)は、ドローン群や自律ロボットなどのアプリケーションにおいて柔軟な制御を可能にする産業用4.0に必須である。
本稿では,マルチ状態マルコフブロックフェーディングチャネル上で限られた無線リソースを共有するセンサやアクチュエータを用いて,複数の制御ループ間の相関ダイナミクスを捕捉する実用的WNCSモデルを提案する。
本研究では,ハイブリッドな動作空間を効率的に処理し,通信制御の相関関係を捉え,疎域変数や浮動小数点制御の入力に拘わらず堅牢なトレーニングを確実にするDeep Reinforcement Learning (DRL)アルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-10-15T06:28:21Z) - Cooperative and Asynchronous Transformer-based Mission Planning for Heterogeneous Teams of Mobile Robots [1.1049608786515839]
本稿では,CATMiP(Cooperative and Asynchronous Transformer-based Mission Planning)フレームワークを提案する。
CatMiPはマルチエージェント強化学習を使用して、エージェントを異質なセンシング、モーション、アクティベーション能力で調整する。
ミッションの複雑さやコミュニケーションの制約に容易に適応し、さまざまな環境サイズやチーム構成にスケールします。
論文 参考訳(メタデータ) (2024-10-08T21:14:09Z) - Learning Multi-Agent Communication from Graph Modeling Perspective [62.13508281188895]
本稿では,エージェント間の通信アーキテクチャを学習可能なグラフとして概念化する手法を提案する。
提案手法であるCommFormerは,通信グラフを効率よく最適化し,勾配降下によるアーキテクチャパラメータをエンドツーエンドで並列に洗練する。
論文 参考訳(メタデータ) (2024-05-14T12:40:25Z) - Effective Communication with Dynamic Feature Compression [25.150266946722]
本研究では,タスクを制御するロボットに対して,観察者が知覚データを伝達しなければならないプロトタイパルシステムについて検討する。
本稿では, 量子化レベルを動的に適応させるために, アンサンブルベクトル量子化変分オートエンコーダ(VQ-VAE)を符号化し, 深層強化学習(DRL)エージェントを訓練する。
我々は、よく知られたCartPole参照制御問題に対して提案手法を検証し、大幅な性能向上を得た。
論文 参考訳(メタデータ) (2024-01-29T15:35:05Z) - Push- and Pull-based Effective Communication in Cyber-Physical Systems [15.079887992932692]
我々は,CPSにおけるプッシュ・アンド・プル・コミュニケーションの分析モデルを提案し,そのポリシーの最適性はサイバー価値情報(VoI)の状態と一致していることを確認した。
我々の結果は、より良い最適ソリューションを提供するにもかかわらず、実装可能なプッシュベースの通信戦略は比較的単純なシナリオでも性能が劣る可能性があることも強調した。
論文 参考訳(メタデータ) (2024-01-15T10:06:17Z) - Asynchronous Perception-Action-Communication with Graph Neural Networks [93.58250297774728]
グローバルな目的を達成するため,大規模なロボット群における協調作業は,大規模環境における課題である。
ロボットはパーセプション・アクション・コミュニケーションループを実行し、ローカル環境を認識し、他のロボットと通信し、リアルタイムで行動を起こす必要がある。
近年では、フロッキングやカバレッジ制御などのアプリケーションでグラフニューラルネットワーク(GNN)を使用してこの問題に対処している。
本稿では、分散化されたGNNを用いてナビゲーション動作を計算し、通信のためのメッセージを生成するロボット群における非同期PACフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-18T21:20:50Z) - Semantic and Effective Communication for Remote Control Tasks with
Dynamic Feature Compression [23.36744348465991]
ロボットの群れの調整と産業システムのリモート無線制御は、5Gおよびそれ以上のシステムの主要なユースケースである。
本研究では,タスクを制御するアクターに知覚データを伝達しなければならないプロトタイパルシステムについて考察する。
本稿では,量子化レベルを動的に適応させるために,アンサンブルベクトル量子化変分オートエンコーダ(VQ-VAE)を符号化し,深層強化学習(DRL)エージェントを訓練する。
論文 参考訳(メタデータ) (2023-01-14T11:43:56Z) - Over-communicate no more: Situated RL agents learn concise communication
protocols [78.28898217947467]
互いに効果的に効率的にコミュニケーションできる人工エージェントをいかに設計するかは、不明である。
強化学習(RL)を用いたコミュニケーションの出現に関する研究
エージェントがコミュニケーションを行うための環境行為を強制しなければならない多段階タスクにおける位置的コミュニケーションについて検討する。
テストされたすべてのプレッシャーは過剰なコミュニケーションを阻害する可能性があるが、位置通信は最も効果的であり、努力のコストとは異なり、発生に悪影響を及ぼさない。
論文 参考訳(メタデータ) (2022-11-02T21:08:14Z) - Deep reinforcement learning of event-triggered communication and control
for multi-agent cooperative transport [9.891241465396098]
協調輸送のためのコミュニケーション・制御戦略の設計問題に対処する多エージェント強化学習手法を検討する。
我々のフレームワークはイベントトリガーアーキテクチャ、すなわち通信入力を演算するフィードバックコントローラと、入力を再更新する必要があるタイミングを決定するトリガー機構を利用する。
論文 参考訳(メタデータ) (2021-03-29T01:16:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。