論文の概要: Learning to Navigate in Turbulent Flows with Aerial Robot Swarms: A
Cooperative Deep Reinforcement Learning Approach
- arxiv url: http://arxiv.org/abs/2306.04781v1
- Date: Wed, 7 Jun 2023 21:02:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-09 17:32:12.584221
- Title: Learning to Navigate in Turbulent Flows with Aerial Robot Swarms: A
Cooperative Deep Reinforcement Learning Approach
- Title(参考訳): 航空ロボット群を用いた乱流中をナビゲートする学習--協調的深層強化学習アプローチ
- Authors: Diego Pati\~no and Siddharth Mayya and Juan Calderon and Kostas
Daniilidis and David Salda\~na
- Abstract要約: 乱流中を移動するための新しいマルチロボットコントローラを提案する。
本手法は,特定の時間と空間における気流の補償を学ばない。
これは、グラフ畳み込みニューラルネットワーク(GCNN)ベースのアーキテクチャによって実装された、深い強化学習アプローチによって実現されている。
- 参考スコア(独自算出の注目度): 35.48454200357273
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Aerial operation in turbulent environments is a challenging problem due to
the chaotic behavior of the flow. This problem is made even more complex when a
team of aerial robots is trying to achieve coordinated motion in turbulent wind
conditions. In this paper, we present a novel multi-robot controller to
navigate in turbulent flows, decoupling the trajectory-tracking control from
the turbulence compensation via a nested control architecture. Unlike previous
works, our method does not learn to compensate for the air-flow at a specific
time and space. Instead, our method learns to compensate for the flow based on
its effect on the team. This is made possible via a deep reinforcement learning
approach, implemented via a Graph Convolutional Neural Network (GCNN)-based
architecture, which enables robots to achieve better wind compensation by
processing the spatial-temporal correlation of wind flows across the team. Our
approach scales well to large robot teams -- as each robot only uses
information from its nearest neighbors -- , and generalizes well to robot teams
larger than seen in training. Simulated experiments demonstrate how information
sharing improves turbulence compensation in a team of aerial robots and
demonstrate the flexibility of our method over different team configurations.
- Abstract(参考訳): 乱流環境における空中操作は流れのカオス的挙動のために難しい問題である。
この問題は、空飛ぶロボットチームが乱流風条件下で協調的な動きをしようとするとさらに複雑になる。
本論文では, 乱流中を走行する新しいマルチロボット制御器を提案し, ネスト制御アーキテクチャを用いて乱流補償から軌道追従制御を分離する。
従来の研究とは異なり,本手法では特定の時間と空間における気流の補償は行わない。
代わりに,本手法は,チームに対する効果に基づいて,フローを補償することを学ぶ。
これは、グラフ畳み込みニューラルネットワーク(GCNN)ベースのアーキテクチャによって実装された、深層強化学習アプローチによって実現されている。
我々のアプローチは、大きなロボットチーム – それぞれのロボットが隣人の情報のみを使用するため – に順調に拡大し、トレーニングで見られるよりも大きなロボットチームに一般化します。
シミュレーション実験により, ロボット群における情報共有により乱流補償が向上し, 異なるチーム構成に対する手法の柔軟性が実証された。
関連論文リスト
- HEIGHT: Heterogeneous Interaction Graph Transformer for Robot Navigation in Crowded and Constrained Environments [8.974071308749007]
廊下や家具などの環境制約のある密集した対話型群集におけるロボットナビゲーションの問題点について検討する。
従来の手法ではエージェントと障害物間のあらゆる種類の相互作用を考慮できないため、安全で非効率なロボット経路につながる。
本稿では,ロボットナビゲーションポリシーを強化学習で学習するための構造化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-19T00:56:35Z) - LPAC: Learnable Perception-Action-Communication Loops with Applications
to Coverage Control [80.86089324742024]
本稿では,その問題に対する学習可能なパーセプション・アクション・コミュニケーション(LPAC)アーキテクチャを提案する。
CNNは局所認識を処理する。グラフニューラルネットワーク(GNN)はロボットのコミュニケーションを促進する。
評価の結果,LPACモデルは標準分散型および集中型カバレッジ制御アルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2024-01-10T00:08:00Z) - Neural-Fly Enables Rapid Learning for Agile Flight in Strong Winds [96.74836678572582]
本稿では,ディープラーニングを通じて事前学習した表現を組み込むことで,オンラインでの迅速な適応を可能にする学習ベースのアプローチを提案する。
Neural-Flyは、最先端の非線形かつ適応的なコントローラよりもかなり少ないトラッキングエラーで正確な飛行制御を実現する。
論文 参考訳(メタデータ) (2022-05-13T21:55:28Z) - Learning Pneumatic Non-Prehensile Manipulation with a Mobile Blower [30.032847855193864]
管制官は 常に 行動の予期せぬ変化に 適応しなければならない。
本稿では,空間行動マップフレームワークのマルチ周波数バージョンを紹介する。
これにより、高レベルの計画と低レベルのクローズドループ制御を効果的に組み合わせたビジョンベースのポリシーの効率的な学習が可能になる。
論文 参考訳(メタデータ) (2022-04-05T17:55:58Z) - Optimizing Airborne Wind Energy with Reinforcement Learning [0.0]
強化学習(Reinforcement Learning)は、システムの事前の知識を必要とせずに、観察と利益ある行動とを関連付ける技術である。
シミュレーション環境において、強化学習は、遠距離で車両を牽引できるように、カイトを効率的に制御する方法を見出した。
論文 参考訳(メタデータ) (2022-03-27T10:28:16Z) - Learning High-Speed Flight in the Wild [101.33104268902208]
複雑な自然環境や人工環境を高速で自律的に飛行するエンド・ツー・エンドのアプローチを提案する。
鍵となる原理は、雑音の知覚観測を直接、後退水平方向に無衝突軌道にマッピングすることである。
現実的なセンサノイズをシミュレートすることにより,シミュレーションから現実環境へのゼロショット転送を実現する。
論文 参考訳(メタデータ) (2021-10-11T09:43:11Z) - OSCAR: Data-Driven Operational Space Control for Adaptive and Robust
Robot Manipulation [50.59541802645156]
オペレーショナル・スペース・コントロール(OSC)は、操作のための効果的なタスクスペース・コントローラとして使われてきた。
本稿では,データ駆動型OSCのモデル誤差を補償するOSC for Adaptation and Robustness (OSCAR)を提案する。
本手法は,様々なシミュレーション操作問題に対して評価し,制御器のベースラインの配列よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2021-10-02T01:21:38Z) - Meta-Learning-Based Robust Adaptive Flight Control Under Uncertain Wind
Conditions [13.00214468719929]
リアルタイムモデル学習は、さまざまな風条件で飛行するドローンなどの複雑なダイナミクスシステムにとって困難です。
本稿では,ディープニューラルネットワークからの出力を基本関数の集合として扱うオンライン複合適応手法を提案する。
我々は,風条件の異なる空洞でドローンを飛ばし,挑戦的な軌道を飛行させることにより,我々のアプローチを検証する。
論文 参考訳(メタデータ) (2021-03-02T18:43:59Z) - Decentralized Structural-RNN for Robot Crowd Navigation with Deep
Reinforcement Learning [4.724825031148412]
本研究では, 群集ナビゲーションにおけるロボット決定のための空間的・時間的関係を考慮に入れた構造的リカレントニューラルネットワーク(DS-RNN)を提案する。
我々のモデルは、群衆ナビゲーションのシナリオに挑戦する上で、過去の手法よりも優れていることを実証する。
シミュレータで学んだポリシーを現実世界のTurtleBot 2iに転送することに成功した。
論文 参考訳(メタデータ) (2020-11-09T23:15:31Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。