論文の概要: Reinforcement Learning based 6-DoF Maneuvers for Microgravity Intravehicular Docking: A Simulation Study with Int-Ball2 in ISS-JEM
- arxiv url: http://arxiv.org/abs/2512.13514v1
- Date: Mon, 15 Dec 2025 16:42:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.358783
- Title: Reinforcement Learning based 6-DoF Maneuvers for Microgravity Intravehicular Docking: A Simulation Study with Int-Ball2 in ISS-JEM
- Title(参考訳): 微小重力下ドッキングのための強化学習に基づく6-DoFマニピュレータ:ISS-JEMにおけるInt-Ball2を用いたシミュレーション研究
- Authors: Aman Arora, Matteo El-Hariry, Miguel Olivares-Mendez,
- Abstract要約: 本研究は,JAXAのInt-Ball2ロボットを高忠実度アイザック・シムモデル(JEM)内にドッキングするための強化学習フレームワークを提案する。
PPO(Proximal Policy Optimization)を用いて、ドメインランダム化力学と有界観測雑音の下で制御器を訓練・評価する。
これにより、Int-Ball2の推進物理学が制約された微小重力内部でのRLベースのドッキング性能にどのように影響するかを制御できる。
- 参考スコア(独自算出の注目度): 0.5046831208137847
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous free-flyers play a critical role in intravehicular tasks aboard the International Space Station (ISS), where their precise docking under sensing noise, small actuation mismatches, and environmental variability remains a nontrivial challenge. This work presents a reinforcement learning (RL) framework for six-degree-of-freedom (6-DoF) docking of JAXA's Int-Ball2 robot inside a high-fidelity Isaac Sim model of the Japanese Experiment Module (JEM). Using Proximal Policy Optimization (PPO), we train and evaluate controllers under domain-randomized dynamics and bounded observation noise, while explicitly modeling propeller drag-torque effects and polarity structure. This enables a controlled study of how Int-Ball2's propulsion physics influence RL-based docking performance in constrained microgravity interiors. The learned policy achieves stable and reliable docking across varied conditions and lays the groundwork for future extensions pertaining to Int-Ball2 in collision-aware navigation, safe RL, propulsion-accurate sim-to-real transfer, and vision-based end-to-end docking.
- Abstract(参考訳): ISS(国際宇宙ステーション)の車内作業において自律的なフリーフライアは重要な役割を担っている。
本研究は、JAXAのInt-Ball2ロボットの6自由度ドッキングのための強化学習(RL)フレームワークを、日本実験モジュール(JEM)の高忠実なIsaac Simモデル内に提示する。
PPO(Proximal Policy Optimization)を用いて、プロペラのドラッグトルク効果と極性構造を明示的にモデル化しながら、ドメインランダム化ダイナミクスと境界観測ノイズの下でコントローラを訓練・評価する。
これにより、Int-Ball2の推進物理学が制約された微小重力内部でのRLベースのドッキング性能にどのように影響するかを制御できる。
学習されたポリシーは、様々な条件にまたがって安定かつ信頼性の高いドッキングを実現し、衝突認識ナビゲーション、安全なRL、推進精度の高いsim-to-real転送、ビジョンベースのエンドツーエンドドッキングにおけるInt-Ball2に関連する将来の拡張の基盤となる。
関連論文リスト
- How to Model Your Crazyflie Brushless [50.54424040768484]
2025年初め、クラジフリー・ブラシレスが登場し、ブラシレスモーターで推力は約50%向上した。
この研究はクレイジーフリー・ブラシレスの力学モデルを示し、その重要なパラメータを同定する。
ニューラルネットワーク位置制御器を訓練し、バックフリップ制御器を学習することにより、強化学習アプリケーションに適していることを示す。
論文 参考訳(メタデータ) (2026-03-06T06:21:39Z) - Fast Policy Learning for 6-DOF Position Control of Underwater Vehicles [1.4883782513177095]
強化学習(Reinforcement Learning, RL)は強力な代替手段を提供するが、訓練は通常は遅く、シミュレートから現実への移行は難しいままである。
JAX と MuJoCo-XLA (MJX) で構築された GPU アクセラレーションによる RL トレーニングパイプラインを導入する。
大規模並列物理シミュレーションと学習更新を共同でJITコンパイルすることにより,2分以内のトレーニング時間を達成できる。
論文 参考訳(メタデータ) (2025-12-15T14:12:32Z) - Autonomous Planning In-space Assembly Reinforcement-learning free-flYer (APIARY) International Space Station Astrobee Testing [0.12194516968349499]
米国海軍研究所(NRL)の自律計画宇宙組み立て強化学習(APIary)実験は、宇宙のゼロ重力環境における自由飛行ロボットの制御に強化学習(RL)を用いることを開拓した。
2025年5月27日火曜日、NASAのアストローブ・ロボットが国際宇宙ステーション(ISS)に着陸した。
アクター・クリティカルを用いた頑健な自由度制御政策(DOF)の訓練
論文 参考訳(メタデータ) (2025-12-03T12:16:52Z) - ASTREA: Introducing Agentic Intelligence for Orbital Thermal Autonomy [51.56484100374058]
ASTREAは、自律的な宇宙船運用のためのフライト・ヘリテージ・ハードウェア上で実行される最初のエージェント・システムである。
我々は,資源制約付き大規模言語モデル(LLM)エージェントと強化学習コントローラを,空間対応プラットフォームに適した非同期アーキテクチャに統合する。
論文 参考訳(メタデータ) (2025-09-16T08:52:13Z) - Sim2Dust: Mastering Dynamic Waypoint Tracking on Granular Media [16.948852537273655]
本研究は,挑戦面上での動的ウェイポイントトラッキングのためのロバストな制御ポリシを開発するための,完全なsim-to-realフレームワークを提案する。
我々は超並列シミュレーションを利用して、プロシージャ生成環境の広範囲にわたる強化学習エージェントを訓練する。
本実験は,複数の強化学習アルゴリズムと動作平滑化フィルタを体系的に比較し,実世界の展開において最も効果的な組み合わせを同定する。
論文 参考訳(メタデータ) (2025-08-15T14:30:07Z) - A General Infrastructure and Workflow for Quadrotor Deep Reinforcement Learning and Reality Deployment [48.90852123901697]
本稿では, エンドツーエンドの深層強化学習(DRL)ポリシーを四元数へシームレスに移行できるプラットフォームを提案する。
本プラットフォームは, ホバリング, 動的障害物回避, 軌道追尾, 気球打上げ, 未知環境における計画など, 多様な環境を提供する。
論文 参考訳(メタデータ) (2025-04-21T14:25:23Z) - Neural-based Control for CubeSat Docking Maneuvers [0.0]
本稿では、強化学習(RL)によって訓練されたニューラルネットワーク(ANN)を用いた革新的なアプローチを提案する。
提案した戦略は実装が容易であり、経験から制御ポリシーを学習することで、高速な適応性と障害に対する堅牢性を提供する。
本研究は、宇宙機RVDの適応性と効率の確保におけるRLの有効性を強調し、今後のミッションへの期待について考察した。
論文 参考訳(メタデータ) (2024-10-16T16:05:46Z) - Efficient Real-time Smoke Filtration with 3D LiDAR for Search and Rescue
with Autonomous Heterogeneous Robotic Systems [56.838297900091426]
スモークとダストは、搭載された知覚システムに依存するため、あらゆる移動ロボットプラットフォームの性能に影響を与える。
本稿では,重みと空間情報に基づく新しいモジュラー計算フィルタを提案する。
論文 参考訳(メタデータ) (2023-08-14T16:48:57Z) - OSCAR: Data-Driven Operational Space Control for Adaptive and Robust
Robot Manipulation [50.59541802645156]
オペレーショナル・スペース・コントロール(OSC)は、操作のための効果的なタスクスペース・コントローラとして使われてきた。
本稿では,データ駆動型OSCのモデル誤差を補償するOSC for Adaptation and Robustness (OSCAR)を提案する。
本手法は,様々なシミュレーション操作問題に対して評価し,制御器のベースラインの配列よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2021-10-02T01:21:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。