論文の概要: Autonomous Planning In-space Assembly Reinforcement-learning free-flYer (APIARY) International Space Station Astrobee Testing
- arxiv url: http://arxiv.org/abs/2512.03729v1
- Date: Wed, 03 Dec 2025 12:16:52 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 12:08:37.93197
- Title: Autonomous Planning In-space Assembly Reinforcement-learning free-flYer (APIARY) International Space Station Astrobee Testing
- Title(参考訳): 自己計画型宇宙組立強化学習型フリーフライヤー(APIary)国際宇宙ステーションアストローブ試験
- Authors: Samantha Chapin, Kenneth Stewart, Roxana Leontie, Carl Glen Henshaw,
- Abstract要約: 米国海軍研究所(NRL)の自律計画宇宙組み立て強化学習(APIary)実験は、宇宙のゼロ重力環境における自由飛行ロボットの制御に強化学習(RL)を用いることを開拓した。
2025年5月27日火曜日、NASAのアストローブ・ロボットが国際宇宙ステーション(ISS)に着陸した。
アクター・クリティカルを用いた頑健な自由度制御政策(DOF)の訓練
- 参考スコア(独自算出の注目度): 0.12194516968349499
- License:
- Abstract: The US Naval Research Laboratory's (NRL's) Autonomous Planning In-space Assembly Reinforcement-learning free-flYer (APIARY) experiment pioneers the use of reinforcement learning (RL) for control of free-flying robots in the zero-gravity (zero-G) environment of space. On Tuesday, May 27th 2025 the APIARY team conducted the first ever, to our knowledge, RL control of a free-flyer in space using the NASA Astrobee robot on-board the International Space Station (ISS). A robust 6-degrees of freedom (DOF) control policy was trained using an actor-critic Proximal Policy Optimization (PPO) network within the NVIDIA Isaac Lab simulation environment, randomizing over goal poses and mass distributions to enhance robustness. This paper details the simulation testing, ground testing, and flight validation of this experiment. This on-orbit demonstration validates the transformative potential of RL for improving robotic autonomy, enabling rapid development and deployment (in minutes to hours) of tailored behaviors for space exploration, logistics, and real-time mission needs.
- Abstract(参考訳): アメリカ海軍研究所(NRL)の自律計画宇宙組み立て強化学習(APIary)実験は、宇宙のゼロ重力環境(ゼロ重力環境)における自由飛行ロボットの制御に強化学習(RL)を用いることを開拓した。
2025年5月27日、NASAのアストローブ・ロボットが国際宇宙ステーション(ISS)に着陸した。
NVIDIA Isaac Labシミュレーション環境内のアクター・クリティカル・プロキシ・ポリシー・オプティマイズ(PPO)ネットワークを用いて、ロバストな6自由度制御ポリシー(DOF)をトレーニングし、ロバスト性を高めるためにゴールポーズと質量分布をランダム化した。
本稿では, 本実験のシミュレーション試験, 地上試験, 飛行検証について述べる。
この軌道上でのデモンストレーションは、ロボット自律性を改善するためのRLの変革的なポテンシャルを実証し、宇宙探査、ロジスティクス、そしてリアルタイムのミッションニーズに合わせた行動の迅速な開発と展開を可能にする。
関連論文リスト
- Crossing the Sim2Real Gap Between Simulation and Ground Testing to Space Deployment of Autonomous Free-flyer Control [0.12194516968349499]
強化学習(Reinforcement Learning, RL)は、宇宙におけるロボット制御の変革的なポテンシャルを提供する。
国際宇宙ステーション(ISS)の無人飛行ロボット、NASA AstrobeeのRLによる自律制御の初の軌道上でのデモンストレーションを紹介する。
NVIDIAのOmniverse物理シミュレータとカリキュラム学習を使用して、Astrobeeの標準姿勢と翻訳制御を置き換えるために、ディープニューラルネットワークをトレーニングし、微小重力でナビゲートできるようにしました。
論文 参考訳(メタデータ) (2025-12-03T12:33:35Z) - ASTREA: Introducing Agentic Intelligence for Orbital Thermal Autonomy [51.56484100374058]
ASTREAは、自律的な宇宙船運用のためのフライト・ヘリテージ・ハードウェア上で実行される最初のエージェント・システムである。
我々は,資源制約付き大規模言語モデル(LLM)エージェントと強化学習コントローラを,空間対応プラットフォームに適した非同期アーキテクチャに統合する。
論文 参考訳(メタデータ) (2025-09-16T08:52:13Z) - Deep Learning Warm Starts for Trajectory Optimization on the International Space Station [20.292201054946048]
軌道最適化は現代の自律ロボットの基盤であり、システムは安全と物理的制約を尊重しながら、軌道と制御をリアルタイムで計算することができる。
国際宇宙ステーション(ISS)に搭載されたアストローブ自由飛行ロボットの軌道最適化を加速するために、機械学習によるウォームスタートを用いた最初の宇宙でのデモンストレーション結果を提供する。
この研究は、宇宙飛行アプリケーションにおける学習ベースの制御の利用における重要なマイルストーンであり、自律的な誘導、ナビゲーション、制御に機械学習を使用することの今後の進歩の足掛かりである。
論文 参考訳(メタデータ) (2025-05-08T18:42:36Z) - Reaching the Limit in Autonomous Racing: Optimal Control versus
Reinforcement Learning [66.10854214036605]
ロボット工学における中心的な問題は、アジャイルなモバイルロボットの制御システムをどうやって設計するかである。
本稿では、強化学習(RL)で訓練されたニューラルネットワークコントローラが最適制御(OC)法より優れていることを示す。
その結果、アジャイルドローンを最大性能に押し上げることができ、最大加速速度は重力加速度の12倍以上、ピーク速度は時速108kmに達しました。
論文 参考訳(メタデータ) (2023-10-17T02:40:27Z) - Enabling Astronaut Self-Scheduling using a Robust Advanced Modelling and
Scheduling system: an assessment during a Mars analogue mission [44.621922701019336]
アナログ宇宙飛行士の乗組員によるコンピュータ意思決定支援ツールの使用について検討した。
提案されたツールはRomieと呼ばれ、Robost Advanced Modelling and Scheduling (RAMS)システムの新しいカテゴリに属している。
論文 参考訳(メタデータ) (2023-01-14T21:10:05Z) - A Walk in the Park: Learning to Walk in 20 Minutes With Model-Free
Reinforcement Learning [86.06110576808824]
深層強化学習は、制御されていない環境での学習ポリシーに対する有望なアプローチである。
機械学習アルゴリズムとライブラリの最近の進歩と、慎重に調整されたロボットコントローラを組み合わせることで、現実世界では4分で学習できる。
論文 参考訳(メタデータ) (2022-08-16T17:37:36Z) - Autonomous Aerial Robot for High-Speed Search and Intercept Applications [86.72321289033562]
高速物体把握のための完全自律飛行ロボットが提案されている。
追加のサブタスクとして、我々のシステムは、表面に近い極にある気球を自律的にピアスすることができる。
我々のアプローチは、挑戦的な国際競争で検証され、優れた結果が得られました。
論文 参考訳(メタデータ) (2021-12-10T11:49:51Z) - RL STaR Platform: Reinforcement Learning for Simulation based Training
of Robots [3.249853429482705]
強化学習(Reinforcement Learning, RL)は、宇宙ロボット工学における自律性と意思決定能力を高めるための、有望な分野である。
本稿では,RL STaRプラットフォームについて紹介する。
論文 参考訳(メタデータ) (2020-09-21T03:09:53Z) - Imitation Learning for Autonomous Trajectory Learning of Robot Arms in
Space [13.64392246529041]
実演や模倣学習によるプログラミングの概念は、小型宇宙船に搭載されたマニピュレータの軌道計画に使用される。
7自由度(DoF)を持つロボットアームは、将来の宇宙ミッションにおける自律性の向上と地上制御による人間の介入の最小化のために、デブリ除去、軌道上サービス、組み立てといった複数のタスクを実行するために構想されている。
論文 参考訳(メタデータ) (2020-08-10T10:18:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。