論文の概要: Scalable Task-Driven Robotic Swarm Control via Collision Avoidance and
Learning Mean-Field Control
- arxiv url: http://arxiv.org/abs/2209.07420v1
- Date: Thu, 15 Sep 2022 16:15:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-16 12:30:11.573706
- Title: Scalable Task-Driven Robotic Swarm Control via Collision Avoidance and
Learning Mean-Field Control
- Title(参考訳): 衝突回避と平均場制御によるスケーラブルなタスク駆動型ロボット群制御
- Authors: Kai Cui, Mengguang Li, Christian Fabian, Heinz Koeppl
- Abstract要約: 我々は、最先端平均場制御技術を用いて、多くのエージェントSwarm制御を分散の古典的な単一エージェント制御に変換する。
そこで我々は,衝突回避と平均場制御の学習を,知的ロボット群動作を牽引的に設計するための統一的な枠組みに統合する。
- 参考スコア(独自算出の注目度): 23.494528616672024
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, reinforcement learning and its multi-agent analogue have
achieved great success in solving various complex control problems. However,
multi-agent reinforcement learning remains challenging both in its theoretical
analysis and empirical design of algorithms, especially for large swarms of
embodied robotic agents where a definitive toolchain remains part of active
research. We use emerging state-of-the-art mean-field control techniques in
order to convert many-agent swarm control into more classical single-agent
control of distributions. This allows profiting from advances in single-agent
reinforcement learning at the cost of assuming weak interaction between agents.
As a result, the mean-field model is violated by the nature of real systems
with embodied, physically colliding agents. Here, we combine collision
avoidance and learning of mean-field control into a unified framework for
tractably designing intelligent robotic swarm behavior. On the theoretical
side, we provide novel approximation guarantees for both general mean-field
control in continuous spaces and with collision avoidance. On the practical
side, we show that our approach outperforms multi-agent reinforcement learning
and allows for decentralized open-loop application while avoiding collisions,
both in simulation and real UAV swarms. Overall, we propose a framework for the
design of swarm behavior that is both mathematically well-founded and
practically useful, enabling the solution of otherwise intractable swarm
problems.
- Abstract(参考訳): 近年、強化学習とそのマルチエージェントアナログは、様々な複雑な制御問題を解くことに成功している。
しかし、マルチエージェント強化学習は、アルゴリズムの理論的解析と経験的設計の両方において、特に、決定的なツールチェーンが活発な研究の一部として残っている、多数の組込みロボットエージェントにとって、依然として困難である。
我々は,多エージェント群制御をより古典的な分布の単一エージェント制御に変換するために,新たな最先端平均場制御手法を用いる。
これにより、エージェント間の弱い相互作用を想定した単エージェント強化学習の進歩から利益を得ることができる。
その結果、平均場モデルは、物理的に衝突するエージェントを具現化した実システムの性質に反する。
本稿では,衝突回避と平均場制御の学習を統合フレームワークとして組み合わせ,インテリジェントなロボット群行動の設計を行う。
理論面では、連続空間における一般平均場制御と衝突回避の両方に対する新しい近似保証を提供する。
実用面では,本手法はマルチエージェント強化学習より優れており,シミュレーションと実際のUAVスワムの衝突を回避しながら,分散化されたオープンループアプリケーションを可能にする。
全体として,swarmの動作設計のためのフレームワークを提案する。数学的によく確立され,実用的でもあるため,swarmの問題を解決できる。
関連論文リスト
- Decentralized Adversarial Training over Graphs [55.28669771020857]
機械学習モデルの敵攻撃に対する脆弱性は、近年、かなりの注目を集めている。
この研究は、個々のエージェントが様々な強度摂動空間に従属するグラフ上の敵の訓練を研究する。
論文 参考訳(メタデータ) (2023-03-23T15:05:16Z) - Safe Multi-agent Learning via Trapping Regions [89.24858306636816]
我々は、動的システムの定性理論から知られているトラップ領域の概念を適用し、分散学習のための共同戦略空間に安全セットを作成する。
本稿では,既知の学習力学を持つシステムにおいて,候補がトラップ領域を形成することを検証するための二分分割アルゴリズムと,学習力学が未知のシナリオに対するサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-27T14:47:52Z) - Coach-assisted Multi-Agent Reinforcement Learning Framework for
Unexpected Crashed Agents [120.91291581594773]
本稿では,予期せぬクラッシュを伴う協調型マルチエージェント強化学習システムの公式な定式化について述べる。
本稿では,教師支援型多エージェント強化学習フレームワークを提案する。
私たちの知る限りでは、この研究はマルチエージェントシステムにおける予期せぬクラッシュを初めて研究したものです。
論文 参考訳(メタデータ) (2022-03-16T08:22:45Z) - Relative Distributed Formation and Obstacle Avoidance with Multi-agent
Reinforcement Learning [20.401609420707867]
マルチエージェント強化学習(MARL)に基づく分散生成・障害物回避手法を提案する。
提案手法は, 障害物回避における生成誤差, 生成収束率, オンパー成功率に関して, ベースラインと比較して高い性能を実現する。
論文 参考訳(メタデータ) (2021-11-14T13:02:45Z) - Learning to Centralize Dual-Arm Assembly [0.6091702876917281]
この研究は、デュアルアームペグ・イン・ホール操作のためのフレームワークを提供することで、ヒューマノイドロボットの組み立てに焦点を当てている。
スパース報酬のみを用いることで、モデリングの労力を最小限に抑える。
両腕ペグインホールにおけるフレームワークの有効性を実証し、異なるアクション空間におけるサンプル効率と成功率を解析した。
論文 参考訳(メタデータ) (2021-10-08T09:59:12Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - Decentralized Swarm Collision Avoidance for Quadrotors via End-to-End
Reinforcement Learning [28.592704336574158]
我々は、スターリングの群れから生物学的インスピレーションを受け、その洞察をエンドツーエンドの学習された分散衝突回避に適用する。
生体模倣トポロジカル相互作用規則に基づく新しいスケーラブルな観測モデルを提案する。
学習したポリシーはシミュレーションでテストされ、その後実世界のドローンに転送され、実世界の応用性を検証する。
論文 参考訳(メタデータ) (2021-04-30T11:19:03Z) - Discrete-Time Mean Field Control with Environment States [25.44061731738579]
平均フィールド制御と平均フィールドゲームは、多くのエージェントとの大規模なマルチエージェント問題のためのトラクタブルソリューションとして確立されています。
有限エージェントケースでのエージェント数の増加に伴い、近似最適性を厳格に確立します。
動的プログラミングの原則が成り立ち、その結果、最適な定常的なポリシーが存在することが分かりました。
論文 参考訳(メタデータ) (2021-04-30T10:58:01Z) - UPDeT: Universal Multi-agent Reinforcement Learning via Policy
Decoupling with Transformers [108.92194081987967]
タスクに適合する1つのアーキテクチャを設計し、汎用的なマルチエージェント強化学習パイプラインを最初に試行する。
従来のRNNモデルとは異なり、トランスフォーマーモデルを用いてフレキシブルなポリシーを生成する。
提案方式はUPDeT(Universal Policy Decoupling Transformer)と名付けられ,動作制限を緩和し,マルチエージェントタスクの決定プロセスをより説明しやすいものにする。
論文 参考訳(メタデータ) (2021-01-20T07:24:24Z) - Learning Safe Multi-Agent Control with Decentralized Neural Barrier
Certificates [19.261536710315028]
エージェントが静的な障害物や衝突に対する衝突を避けて目標を達成すべきマルチエージェント安全制御問題について検討する。
私達の中心の考えは安全証明書として制御障壁機能を学ぶことと複数のエージェント制御方針を共同で学ぶことです。
本稿では,特定の関数クラスに対して一般化を保証し,分散的に実装可能な新しい共同学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-14T03:17:17Z) - Risk-Sensitive Sequential Action Control with Multi-Modal Human
Trajectory Forecasting for Safe Crowd-Robot Interaction [55.569050872780224]
本稿では,リスクに敏感な最適制御に基づく安全な群集ロボットインタラクションのためのオンラインフレームワークを提案し,そのリスクをエントロピーリスク尺度でモデル化する。
私たちのモジュラーアプローチは、クラウドとロボットの相互作用を学習ベースの予測とモデルベースの制御に分離します。
シミュレーション研究と実世界の実験により、このフレームワークは、現場にいる50人以上の人間との衝突を避けながら、安全で効率的なナビゲーションを実現することができることが示された。
論文 参考訳(メタデータ) (2020-09-12T02:02:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。