論文の概要: Federated Reinforcement Learning for Collective Navigation of Robotic
Swarms
- arxiv url: http://arxiv.org/abs/2202.01141v1
- Date: Wed, 2 Feb 2022 17:09:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-03 15:21:41.811893
- Title: Federated Reinforcement Learning for Collective Navigation of Robotic
Swarms
- Title(参考訳): 協調強化学習によるロボット群集の集団ナビゲーション
- Authors: Seongin Na, Tom\'a\v{s} Krajn\'ik, Barry Lennox and Farshad Arvin
- Abstract要約: セントラルトレーニングサーバへの依存は、現実世界の環境において重要な問題である。
本稿では,新しいフェデレート・ラーニング(FL)ベースのDRLトレーニング戦略を提案する。
- 参考スコア(独自算出の注目度): 3.0586855806896045
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The recent advancement of Deep Reinforcement Learning (DRL) contributed to
robotics by allowing automatic controller design. Automatic controller design
is a crucial approach for designing swarm robotic systems, which require more
complex controller than a single robot system to lead a desired collective
behaviour. Although DRL-based controller design method showed its
effectiveness, the reliance on the central training server is a critical
problem in the real-world environments where the robot-server communication is
unstable or limited. We propose a novel Federated Learning (FL) based DRL
training strategy for use in swarm robotic applications. As FL reduces the
number of robot-server communication by only sharing neural network model
weights, not local data samples, the proposed strategy reduces the reliance on
the central server during controller training with DRL. The experimental
results from the collective learning scenario showed that the proposed FL-based
strategy dramatically reduced the number of communication by minimum 1600 times
and even increased the success rate of navigation with the trained controller
by 2.8 times compared to the baseline strategies that share a central server.
The results suggest that our proposed strategy can efficiently train swarm
robotic systems in the real-world environments with the limited robot-server
communication, e.g. agri-robotics, underwater and damaged nuclear facilities.
- Abstract(参考訳): 近年のDeep Reinforcement Learning (DRL)の進歩は、自動コントローラ設計を可能にすることでロボット工学に寄与した。
自動コントローラ設計は群ロボットシステムの設計において重要なアプローチであり、望ましい集団行動を導くためには単一のロボットシステムよりも複雑なコントローラを必要とする。
DRLをベースとしたコントローラ設計手法は有効性を示したが,ロボットサーバ間の通信が不安定あるいは制限された実環境において,中央トレーニングサーバへの依存は重要な問題である。
本論文では,swarmロボット応用のための新しい連合学習(fl)ベースのdrlトレーニング戦略を提案する。
FLは、ローカルデータサンプルではなくニューラルネットワークモデル重みを共有することで、ロボットサーバ間の通信回数を減らすため、DRLを用いたコントローラトレーニングにおいて、中央サーバへの依存を減らすことができる。
集合学習シナリオによる実験の結果,提案するflベースの戦略は,通信回数を最大で1600倍に削減し,また,中央サーバを共有するベースライン戦略と比較して,訓練されたコントローラによるナビゲーションの成功率を2.8倍に向上させた。
提案手法は, アグリロボット工学, 水中および損傷した核施設など, 限られたロボットサーバ通信を用いて, 実環境におけるスワーミングロボットシステムを効率的に訓練できることを示唆する。
関連論文リスト
- Fed-EC: Bandwidth-Efficient Clustering-Based Federated Learning For Autonomous Visual Robot Navigation [7.8839937556789375]
Federated-EmbedCluster (Fed-EC) は、さまざまな屋外環境で視覚ベースの自律ロボットナビゲーションを備えたクラスタリングベースのフェデレーション学習フレームワークである。
Fed-ECは、目標指向ナビゲーションの集中学習性能に適合しながら、各ロボットの通信サイズを23倍に削減し、局所学習より優れる。
論文 参考訳(メタデータ) (2024-11-06T18:44:09Z) - SERL: A Software Suite for Sample-Efficient Robotic Reinforcement
Learning [85.21378553454672]
筆者らは,報酬の計算と環境のリセットを行う手法とともに,効率的なオフ・ポリティクス・ディープ・RL法を含むライブラリを開発した。
我々は,PCBボードアセンブリ,ケーブルルーティング,オブジェクトの移動に関するポリシを,非常に効率的な学習を実現することができることを発見した。
これらの政策は完全な成功率またはほぼ完全な成功率、摂動下でさえ極端な堅牢性を実現し、突発的な堅牢性回復と修正行動を示す。
論文 参考訳(メタデータ) (2024-01-29T10:01:10Z) - LPAC: Learnable Perception-Action-Communication Loops with Applications
to Coverage Control [80.86089324742024]
本稿では,その問題に対する学習可能なパーセプション・アクション・コミュニケーション(LPAC)アーキテクチャを提案する。
CNNは局所認識を処理する。グラフニューラルネットワーク(GNN)はロボットのコミュニケーションを促進する。
評価の結果,LPACモデルは標準分散型および集中型カバレッジ制御アルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2024-01-10T00:08:00Z) - Reaching the Limit in Autonomous Racing: Optimal Control versus
Reinforcement Learning [66.10854214036605]
ロボット工学における中心的な問題は、アジャイルなモバイルロボットの制御システムをどうやって設計するかである。
本稿では、強化学習(RL)で訓練されたニューラルネットワークコントローラが最適制御(OC)法より優れていることを示す。
その結果、アジャイルドローンを最大性能に押し上げることができ、最大加速速度は重力加速度の12倍以上、ピーク速度は時速108kmに達しました。
論文 参考訳(メタデータ) (2023-10-17T02:40:27Z) - REBOOT: Reuse Data for Bootstrapping Efficient Real-World Dexterous
Manipulation [61.7171775202833]
本稿では,強化学習による巧妙な操作スキルの学習を効率化するシステムを提案する。
我々のアプローチの主な考え方は、サンプル効率のRLとリプレイバッファブートストラップの最近の進歩の統合である。
本システムでは,実世界の学習サイクルを,模倣に基づくピックアップポリシを通じて学習されたリセットを組み込むことで完遂する。
論文 参考訳(メタデータ) (2023-09-06T19:05:31Z) - Stabilizing Contrastive RL: Techniques for Robotic Goal Reaching from
Offline Data [101.43350024175157]
自己指導型学習は、制御戦略を学ぶのに必要な人間のアノテーションとエンジニアリングの労力を減らす可能性がある。
我々の研究は、強化学習(RL)自体が自己監督的な問題であることを示す先行研究に基づいている。
コントラスト学習に基づく自己教師付きRLアルゴリズムは,実世界の画像に基づくロボット操作タスクを解くことができることを示す。
論文 参考訳(メタデータ) (2023-06-06T01:36:56Z) - FastRLAP: A System for Learning High-Speed Driving via Deep RL and
Autonomous Practicing [71.76084256567599]
本稿では、自律型小型RCカーを強化学習(RL)を用いた視覚的観察から積極的に駆動するシステムを提案する。
我々のシステムであるFastRLAP (faster lap)は、人間の介入なしに、シミュレーションや専門家によるデモンストレーションを必要とせず、現実世界で自律的に訓練する。
結果として得られたポリシーは、タイミングブレーキや回転の加速度などの突発的な運転スキルを示し、ロボットの動きを妨げる領域を避け、トレーニングの途中で同様の1対1のインタフェースを使用して人間のドライバーのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2023-04-19T17:33:47Z) - Learning Bipedal Walking for Humanoids with Current Feedback [5.429166905724048]
アクチュエータレベルでの不正確なトルクトラッキングから生じるヒューマノイドロボットのシム2リアルギャップ問題を克服するためのアプローチを提案する。
提案手法は、実際のHRP-5Pヒューマノイドロボットに展開して二足歩行を実現するシミュレーションにおいて、一貫したエンドツーエンドのポリシーをトレーニングする。
論文 参考訳(メタデータ) (2023-03-07T08:16:46Z) - Decentralized Circle Formation Control for Fish-like Robots in the
Real-world via Reinforcement Learning [16.050280167846264]
協調型魚型ロボット群では, 円形成制御の問題に対処している。
魚のようなロボットのダイナミクスを知らない分散型コントローラを提案する。
論文 参考訳(メタデータ) (2021-03-09T08:38:28Z) - RL STaR Platform: Reinforcement Learning for Simulation based Training
of Robots [3.249853429482705]
強化学習(Reinforcement Learning, RL)は、宇宙ロボット工学における自律性と意思決定能力を高めるための、有望な分野である。
本稿では,RL STaRプラットフォームについて紹介する。
論文 参考訳(メタデータ) (2020-09-21T03:09:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。