論文の概要: AirCapRL: Autonomous Aerial Human Motion Capture using Deep
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2007.06343v2
- Date: Sat, 1 Aug 2020 11:10:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 00:51:54.409210
- Title: AirCapRL: Autonomous Aerial Human Motion Capture using Deep
Reinforcement Learning
- Title(参考訳): AirCapRL:Deep Reinforcement Learningを用いた自律飛行型人体モーションキャプチャ
- Authors: Rahul Tallamraju, Nitin Saini, Elia Bonetto, Michael Pabst, Yu Tang
Liu, Michael J. Black and Aamir Ahmad
- Abstract要約: 自律型空中人体モーションキャプチャ(MoCap)のための深部強化学習(RL)に基づくマルチロボット生成コントローラを提案する。
視覚に基づくMoCapに焦点をあて,体ポーズの軌跡を推定し,複数の空飛ぶ車を用いて1人の動く人物を形作る。
- 参考スコア(独自算出の注目度): 38.429105809093116
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this letter, we introduce a deep reinforcement learning (RL) based
multi-robot formation controller for the task of autonomous aerial human motion
capture (MoCap). We focus on vision-based MoCap, where the objective is to
estimate the trajectory of body pose and shape of a single moving person using
multiple micro aerial vehicles. State-of-the-art solutions to this problem are
based on classical control methods, which depend on hand-crafted system and
observation models. Such models are difficult to derive and generalize across
different systems. Moreover, the non-linearity and non-convexities of these
models lead to sub-optimal controls. In our work, we formulate this problem as
a sequential decision making task to achieve the vision-based motion capture
objectives, and solve it using a deep neural network-based RL method. We
leverage proximal policy optimization (PPO) to train a stochastic decentralized
control policy for formation control. The neural network is trained in a
parallelized setup in synthetic environments. We performed extensive simulation
experiments to validate our approach. Finally, real-robot experiments
demonstrate that our policies generalize to real world conditions. Video Link:
https://bit.ly/38SJfjo Supplementary: https://bit.ly/3evfo1O
- Abstract(参考訳): 本稿では,自律型空中人体モーションキャプチャ(MoCap)のための深部強化学習(RL)に基づくマルチロボット生成制御について紹介する。
視覚をベースとしたMoCapに焦点をあて,複数のマイクロエアロ車両を用いた1人の移動体の姿勢と形状の軌跡を推定することを目的とする。
この問題に対する最先端の解決策は、手作りのシステムと観測モデルに依存する古典的な制御法に基づいている。
このようなモデルは、異なるシステム間で導出および一般化することが困難である。
さらに、これらのモデルの非線形性や非凸性は、準最適制御につながる。
本研究では,視覚に基づくモーションキャプチャ目的を達成するための逐次意思決定タスクとしてこの問題を定式化し,深層ニューラルネットワークを用いたRL法を用いて解決する。
我々はPPOを利用して、構成制御のための確率的分散制御ポリシーを訓練する。
ニューラルネットワークは、合成環境で並列化されたセットアップでトレーニングされる。
我々はアプローチを検証するために広範囲なシミュレーション実験を行った。
最後に、実ロボット実験により、我々のポリシーが現実の条件に一般化されることを示した。
ビデオリンク: https://bit.ly/38SJfjo 補足: https://bit.ly/3evfo1O
関連論文リスト
- A comparison of RL-based and PID controllers for 6-DOF swimming robots:
hybrid underwater object tracking [8.362739554991073]
本稿では,PIDコントローラの代替として,集中型深層Q-network(DQN)コントローラを用いた調査と評価を行う。
我々の主な焦点は、この遷移を水中物体追跡の特定のケースで説明することに集中している。
本実験は,Unityをベースとしたシミュレータで実施し,分離したPIDコントローラ上での集中型RLエージェントの有効性を検証した。
論文 参考訳(メタデータ) (2024-01-29T23:14:15Z) - Reaching the Limit in Autonomous Racing: Optimal Control versus
Reinforcement Learning [66.10854214036605]
ロボット工学における中心的な問題は、アジャイルなモバイルロボットの制御システムをどうやって設計するかである。
本稿では、強化学習(RL)で訓練されたニューラルネットワークコントローラが最適制御(OC)法より優れていることを示す。
その結果、アジャイルドローンを最大性能に押し上げることができ、最大加速速度は重力加速度の12倍以上、ピーク速度は時速108kmに達しました。
論文 参考訳(メタデータ) (2023-10-17T02:40:27Z) - Nonprehensile Planar Manipulation through Reinforcement Learning with
Multimodal Categorical Exploration [8.343657309038285]
強化学習はそのようなロボットコントローラを開発するための強力なフレームワークである。
分類分布を用いたマルチモーダル探索手法を提案する。
学習したポリシは外部の障害や観測ノイズに対して堅牢であり、複数のプッシュ器でタスクにスケールできることが示される。
論文 参考訳(メタデータ) (2023-08-04T16:55:00Z) - Decentralized Multi-Robot Formation Control Using Reinforcement Learning [2.7716102039510564]
本稿では,小人数のSpheroロボット群に適用した強化学習(RL)アルゴリズムに基づく,分散型リーダフォロワマルチロボット生成制御を提案する。
システム動作を向上させるため,我々は2つの異なるDDQNモデルを訓練した。
提案手法は, 複雑な数学的モデルや非線形制御法則を必要とせずに, マルチロボットシステムが安定な構成を実現し, 維持可能であることを示すシミュレーションおよび実実験で検証されている。
論文 参考訳(メタデータ) (2023-06-26T08:02:55Z) - Stabilizing Contrastive RL: Techniques for Robotic Goal Reaching from
Offline Data [101.43350024175157]
自己指導型学習は、制御戦略を学ぶのに必要な人間のアノテーションとエンジニアリングの労力を減らす可能性がある。
我々の研究は、強化学習(RL)自体が自己監督的な問題であることを示す先行研究に基づいている。
コントラスト学習に基づく自己教師付きRLアルゴリズムは,実世界の画像に基づくロボット操作タスクを解くことができることを示す。
論文 参考訳(メタデータ) (2023-06-06T01:36:56Z) - Learning Deep Sensorimotor Policies for Vision-based Autonomous Drone
Racing [52.50284630866713]
既存のシステムは、状態推定、計画、制御のために手作業によるコンポーネントを必要とすることが多い。
本稿では、深層感触者ポリシーを学習することで、視覚に基づく自律ドローンレース問題に取り組む。
論文 参考訳(メタデータ) (2022-10-26T19:03:17Z) - Human-AI Shared Control via Frequency-based Policy Dissection [34.0399894373716]
人間-AI共有制御は、複雑な環境で制御タスクを達成するために、人間がAIと対話し、協力することを可能にする。
従来の強化学習(RL)手法は、人間の制御可能なポリシーを達成するために目標条件付き設計を試みる。
我々は、学習したニューラルコントローラの中間表現とエージェント動作の運動特性を整合させる、TextitPolicy Dissectionと呼ばれるシンプルで効果的な周波数ベースのアプローチを開発した。
論文 参考訳(メタデータ) (2022-05-31T23:57:55Z) - Verifying Learning-Based Robotic Navigation Systems [61.01217374879221]
有効モデル選択に現代検証エンジンをどのように利用できるかを示す。
具体的には、検証を使用して、最適下行動を示す可能性のあるポリシーを検出し、除外する。
我々の研究は、現実世界のロボットにおける準最適DRLポリシーを認識するための検証バックエンドの使用を初めて実証したものである。
論文 参考訳(メタデータ) (2022-05-26T17:56:43Z) - Neural Dynamic Policies for End-to-End Sensorimotor Learning [51.24542903398335]
感覚運動制御における現在の主流パラダイムは、模倣であれ強化学習であれ、生の行動空間で政策を直接訓練することである。
軌道分布空間の予測を行うニューラル・ダイナミック・ポリシー(NDP)を提案する。
NDPは、いくつかのロボット制御タスクにおいて、効率と性能の両面で、これまでの最先端よりも優れている。
論文 参考訳(メタデータ) (2020-12-04T18:59:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。