論文の概要: DRIFT: Deep Reinforcement Learning for Intelligent Floating Platforms Trajectories
- arxiv url: http://arxiv.org/abs/2310.04266v2
- Date: Mon, 16 Sep 2024 09:16:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-18 03:37:26.080396
- Title: DRIFT: Deep Reinforcement Learning for Intelligent Floating Platforms Trajectories
- Title(参考訳): DRIFT:Intelligent Floating Platforms Trajectoriesのための深層強化学習
- Authors: Matteo El-Hariry, Antoine Richard, Vivek Muralidharan, Matthieu Geist, Miguel Olivares-Mendez,
- Abstract要約: フローティングプラットフォームは、地球上の微小重力環境をエミュレートするための多用途テストベッドとして機能する。
私たちのスイートは、シミュレーションから現実への堅牢性、適応性、優れた転送性を実現します。
- 参考スコア(独自算出の注目度): 18.420795137038677
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This investigation introduces a novel deep reinforcement learning-based suite to control floating platforms in both simulated and real-world environments. Floating platforms serve as versatile test-beds to emulate micro-gravity environments on Earth, useful to test autonomous navigation systems for space applications. Our approach addresses the system and environmental uncertainties in controlling such platforms by training policies capable of precise maneuvers amid dynamic and unpredictable conditions. Leveraging Deep Reinforcement Learning (DRL) techniques, our suite achieves robustness, adaptability, and good transferability from simulation to reality. Our deep reinforcement learning framework provides advantages such as fast training times, large-scale testing capabilities, rich visualization options, and ROS bindings for integration with real-world robotic systems. Being open access, our suite serves as a comprehensive platform for practitioners who want to replicate similar research in their own simulated environments and labs.
- Abstract(参考訳): 本研究は, シミュレーション環境と実環境の両方において, 浮遊プラットフォームを制御するための, 深層強化学習ベースのスイートを提案する。
フローティングプラットフォームは、地球上の微小重力環境をエミュレートするための汎用的なテストベッドとして機能し、宇宙アプリケーションのための自律航法システムをテストするのに有用である。
本研究は,動的かつ予測不能な条件下での精密な操作が可能な訓練方針により,このようなプラットフォーム制御におけるシステムと環境の不確実性に対処する。
深層強化学習(DRL)技術を活用することで,我々のスイートは,シミュレーションから現実への堅牢性,適応性,良好な伝達性を実現する。
我々の深層強化学習フレームワークは、高速トレーニング時間、大規模テスト機能、リッチな可視化オプション、実世界のロボットシステムとの統合のためのROSバインディングなどの利点を提供します。
私たちのスイートはオープンアクセスなので、同様の研究をシミュレーションされた環境や研究室で再現したいと考える実践者のための総合的なプラットフォームとして役立ちます。
関連論文リスト
- Neural-based Control for CubeSat Docking Maneuvers [0.0]
本稿では、強化学習(RL)によって訓練されたニューラルネットワーク(ANN)を用いた革新的なアプローチを提案する。
提案した戦略は実装が容易であり、経験から制御ポリシーを学習することで、高速な適応性と障害に対する堅牢性を提供する。
本研究は、宇宙機RVDの適応性と効率の確保におけるRLの有効性を強調し、今後のミッションへの期待について考察した。
論文 参考訳(メタデータ) (2024-10-16T16:05:46Z) - Gaussian Splatting to Real World Flight Navigation Transfer with Liquid Networks [93.38375271826202]
本研究では,シミュレート・トゥ・リアルな視覚四重項ナビゲーションタスクにおける分布シフトに対する一般化とロバスト性を改善する手法を提案する。
まず,擬似飛行力学とガウススプラッティングを統合してシミュレータを構築し,その後,液状ニューラルネットワークを用いてロバストなナビゲーションポリシーを訓練する。
このようにして、我々は3次元ガウススプラッティングラディアンス場レンダリング、専門家による実演訓練データのプログラミング、およびLiquid Networkのタスク理解能力の進歩を組み合わせたフルスタックの模倣学習プロトコルを得る。
論文 参考訳(メタデータ) (2024-06-21T13:48:37Z) - Aquatic Navigation: A Challenging Benchmark for Deep Reinforcement Learning [53.3760591018817]
ゲームエンジンとDeep Reinforcement Learningの統合の最近の進歩を利用して,水上ナビゲーションのための新しいベンチマーク環境を提案する。
具体的には、最も広く受け入れられているアルゴリズムの一つであるPPOに着目し、先進的なトレーニング手法を提案する。
実験により,これらの成分をうまく組み合わせることで,有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-05-30T23:20:23Z) - Learning and Adapting Agile Locomotion Skills by Transferring Experience [71.8926510772552]
本稿では,既存のコントローラから新しいタスクを学習するために経験を移譲することで,複雑なロボティクススキルを訓練するためのフレームワークを提案する。
提案手法は,複雑なアジャイルジャンプ行動の学習,後肢を歩いたまま目標地点への移動,新しい環境への適応を可能にする。
論文 参考訳(メタデータ) (2023-04-19T17:37:54Z) - Residual Physics Learning and System Identification for Sim-to-real
Transfer of Policies on Buoyancy Assisted Legged Robots [14.760426243769308]
本研究では,BALLUロボットのシステム識別による制御ポリシのロバストなシミュレートを実演する。
標準的な教師あり学習の定式化に頼るのではなく、深層強化学習を利用して外部力政策を訓練する。
シミュレーショントラジェクトリと実世界のトラジェクトリを比較することで,改良されたシミュレーション忠実度を解析する。
論文 参考訳(メタデータ) (2023-03-16T18:49:05Z) - PIC4rl-gym: a ROS2 modular framework for Robots Autonomous Navigation
with Deep Reinforcement Learning [0.4588028371034407]
この研究は、ナビゲーションと学習の研究を強化するための基本的なモジュラーフレームワークであるtextitPIC4rl-gymを導入している。
本稿では、DRLエージェントのトレーニングとテストを完全に統合したPIC4rl-gymの全体構造について述べる。
モジュラーアプローチは、新しいプラットフォーム、センサー、モデルを選択することで、シミュレーションを簡単にカスタマイズするために採用されている。
論文 参考訳(メタデータ) (2022-11-19T14:58:57Z) - DeXtreme: Transfer of Agile In-hand Manipulation from Simulation to
Reality [64.51295032956118]
我々は人型ロボットの手で頑健な操作を行える政策を訓練する。
本研究は,各種ハードウェアおよびシミュレータのデクスタラス操作におけるsim-to-real転送の可能性を再確認する。
論文 参考訳(メタデータ) (2022-10-25T01:51:36Z) - A Walk in the Park: Learning to Walk in 20 Minutes With Model-Free
Reinforcement Learning [86.06110576808824]
深層強化学習は、制御されていない環境での学習ポリシーに対する有望なアプローチである。
機械学習アルゴリズムとライブラリの最近の進歩と、慎重に調整されたロボットコントローラを組み合わせることで、現実世界では4分で学習できる。
論文 参考訳(メタデータ) (2022-08-16T17:37:36Z) - VISTA 2.0: An Open, Data-driven Simulator for Multimodal Sensing and
Policy Learning for Autonomous Vehicles [131.2240621036954]
VISTAはオープンソースのデータ駆動シミュレータで、複数のタイプのセンサーを自律走行車に組み込む。
高忠実で実世界のデータセットを使用して、VISTAはRGBカメラ、3D LiDAR、イベントベースのカメラを表現し、シミュレートする。
センサタイプ毎に知覚制御ポリシーをトレーニングし,テストする能力を示し,フルスケールの自律走行車への展開を通じて,このアプローチのパワーを示す。
論文 参考訳(メタデータ) (2021-11-23T18:58:10Z) - Learning to Fly -- a Gym Environment with PyBullet Physics for
Reinforcement Learning of Multi-agent Quadcopter Control [0.0]
本稿では,Bullet物理エンジンに基づく複数クワッドコプターのオープンソース環境を提案する。
マルチエージェントおよびビジョンベースの強化学習インターフェース、および現実的な衝突と空力効果のサポートは、私たちの知識の最高に、その種の最初のものにします。
論文 参考訳(メタデータ) (2021-03-03T02:47:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。