論文の概要: Decentralized Multi-Robot Formation Control Using Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2306.14489v1
- Date: Mon, 26 Jun 2023 08:02:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 14:35:59.874575
- Title: Decentralized Multi-Robot Formation Control Using Reinforcement Learning
- Title(参考訳): 強化学習を用いた分散マルチロボット形成制御
- Authors: Juraj Obradovic, Marko Krizmancic, Stjepan Bogdan
- Abstract要約: 本稿では,小人数のSpheroロボット群に適用した強化学習(RL)アルゴリズムに基づく,分散型リーダフォロワマルチロボット生成制御を提案する。
システム動作を向上させるため,我々は2つの異なるDDQNモデルを訓練した。
提案手法は, 複雑な数学的モデルや非線形制御法則を必要とせずに, マルチロボットシステムが安定な構成を実現し, 維持可能であることを示すシミュレーションおよび実実験で検証されている。
- 参考スコア(独自算出の注目度): 2.7716102039510564
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper presents a decentralized leader-follower multi-robot formation
control based on a reinforcement learning (RL) algorithm applied to a swarm of
small educational Sphero robots. Since the basic Q-learning method is known to
require large memory resources for Q-tables, this work implements the Double
Deep Q-Network (DDQN) algorithm, which has achieved excellent results in many
robotic problems. To enhance the system behavior, we trained two different DDQN
models, one for reaching the formation and the other for maintaining it. The
models use a discrete set of robot motions (actions) to adapt the continuous
nonlinear system to the discrete nature of RL. The presented approach has been
tested in simulation and real experiments which show that the multi-robot
system can achieve and maintain a stable formation without the need for complex
mathematical models and nonlinear control laws.
- Abstract(参考訳): 本稿では,小規模教育用スフェロロボット群に適用した強化学習(rl)アルゴリズムに基づく分散化リーダ従者多ロボット形成制御を提案する。
基礎的なQ-ラーニング法はQ-tableのメモリ資源が大きいことが知られているため、本研究はDouble Deep Q-Network (DDQN)アルゴリズムを実装しており、多くのロボット問題において優れた結果を得た。
システム動作を向上させるため,我々は2つの異なるDDQNモデルを訓練した。
モデルは、連続非線形系をRLの離散的な性質に適応させるために、離散的なロボット運動(アクション)を使用する。
提案手法は,複雑な数学的モデルや非線形制御法則を必要とせずに,安定な形成を実現することができることを示すシミュレーションや実実験で検証されている。
関連論文リスト
- Modelling, Positioning, and Deep Reinforcement Learning Path Tracking
Control of Scaled Robotic Vehicles: Design and Experimental Validation [3.807917169053206]
スケールされたロボットカーは通常、車両の状態の推定と制御に特化したタスクを含む階層的な制御機構を備えている。
本稿では, (i) フェデレートされた拡張カルマンフィルタ (FEKF) と (ii) エキスパートデモレータを用いて訓練された新しい深部強化学習 (DRL) パストラッキングコントローラを提案する。
実験により検証されたモデルは、(i)FEKFの設計を支援するために使用され、(ii)DRLに基づく経路追跡アルゴリズムをトレーニングするためのデジタルツインとして機能する。
論文 参考訳(メタデータ) (2024-01-10T14:40:53Z) - Robot Fine-Tuning Made Easy: Pre-Training Rewards and Policies for
Autonomous Real-World Reinforcement Learning [58.3994826169858]
ロボット強化学習のためのリセット不要な微調整システムであるRoboFuMEを紹介する。
我々の洞察は、オフラインの強化学習技術を利用して、事前訓練されたポリシーの効率的なオンライン微調整を確保することである。
提案手法では,既存のロボットデータセットからのデータを組み込んで,目標タスクを3時間以内の自律現実体験で改善することができる。
論文 参考訳(メタデータ) (2023-10-23T17:50:08Z) - Stabilizing Contrastive RL: Techniques for Robotic Goal Reaching from
Offline Data [101.43350024175157]
自己指導型学習は、制御戦略を学ぶのに必要な人間のアノテーションとエンジニアリングの労力を減らす可能性がある。
我々の研究は、強化学習(RL)自体が自己監督的な問題であることを示す先行研究に基づいている。
コントラスト学習に基づく自己教師付きRLアルゴリズムは,実世界の画像に基づくロボット操作タスクを解くことができることを示す。
論文 参考訳(メタデータ) (2023-06-06T01:36:56Z) - Real-to-Sim: Predicting Residual Errors of Robotic Systems with Sparse
Data using a Learning-based Unscented Kalman Filter [65.93205328894608]
我々は,動的・シミュレータモデルと実ロボット間の残差を学習する。
学習した残差誤差により、動的モデル、シミュレーション、および実際のハードウェア間の現実的ギャップをさらに埋めることができることを示す。
論文 参考訳(メタデータ) (2022-09-07T15:15:12Z) - Bridging Model-based Safety and Model-free Reinforcement Learning
through System Identification of Low Dimensional Linear Models [16.511440197186918]
モデルベース安全性とモデルフリー強化学習を組み合わせた新しい手法を提案する。
閉ループ系の力学を捉えるためには,低次元の力学モデルが十分であることを示す。
検出された線形モデルは、安全クリティカルな最適制御フレームワークによる保証を提供することができることを示す。
論文 参考訳(メタデータ) (2022-05-11T22:03:18Z) - Training and Evaluation of Deep Policies using Reinforcement Learning
and Generative Models [67.78935378952146]
GenRLはシーケンシャルな意思決定問題を解決するためのフレームワークである。
強化学習と潜在変数生成モデルの組み合わせを利用する。
最終方針訓練の性能に最も影響を与える生成モデルの特徴を実験的に決定する。
論文 参考訳(メタデータ) (2022-04-18T22:02:32Z) - Learning to Walk Autonomously via Reset-Free Quality-Diversity [73.08073762433376]
品質多様性アルゴリズムは、多様かつ高いパフォーマンスのスキルからなる大規模で複雑な行動レパートリーを発見することができる。
既存のQDアルゴリズムは、手動による人間の監督と介入を必要とするエピソードリセットと同様に、多数の評価を必要とする。
本稿では,オープンエンド環境におけるロボットの自律学習に向けたステップとして,リセットフリー品質多様性最適化(RF-QD)を提案する。
論文 参考訳(メタデータ) (2022-04-07T14:07:51Z) - Decentralized Circle Formation Control for Fish-like Robots in the
Real-world via Reinforcement Learning [16.050280167846264]
協調型魚型ロボット群では, 円形成制御の問題に対処している。
魚のようなロボットのダイナミクスを知らない分散型コントローラを提案する。
論文 参考訳(メタデータ) (2021-03-09T08:38:28Z) - Model-Free Control of Dynamical Systems with Deep Reservoir Computing [0.0]
本稿では,未知の複雑なシステムに適用可能な非線形制御法を提案する。
我々の手法はシステムに関する事前の知識を必要としないため、モデルフリーである。
貯留層コンピュータは、小さなトレーニングデータセットと驚くほど低いトレーニング時間を必要とするため、制御問題に適している。
論文 参考訳(メタデータ) (2020-10-05T18:59:51Z) - Learning to Walk: Spike Based Reinforcement Learning for Hexapod Robot
Central Pattern Generation [2.4603302139672003]
2足歩行、四足歩行、六足歩行では勾配、深部強化学習(RL)などの手法が研究されている。
スパイクニューラルネットワーク(SNN)の最近の進歩は、神経のスパース発射による計算の大幅な削減を約束している。
スパイキングパターン生成器のトレーニングのための強化型重み更新手法を提案する。
論文 参考訳(メタデータ) (2020-03-22T23:45:32Z) - Information Theoretic Model Predictive Q-Learning [64.74041985237105]
本稿では,情報理論的MPCとエントロピー正規化RLとの新たな理論的関連性を示す。
バイアスモデルを利用したQ-ラーニングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2019-12-31T00:29:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。