論文の概要: Safety-Guaranteed Imitation Learning from Nonlinear Model Predictive Control for Spacecraft Close Proximity Operations
- arxiv url: http://arxiv.org/abs/2603.18910v1
- Date: Thu, 19 Mar 2026 13:47:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-21 18:33:56.990334
- Title: Safety-Guaranteed Imitation Learning from Nonlinear Model Predictive Control for Spacecraft Close Proximity Operations
- Title(参考訳): 宇宙機クローズな近接動作のための非線形モデル予測制御による安全保証模擬学習
- Authors: Alexander Meinert, Niklas Baldauf, Peter Stadler, Alen Turnwald,
- Abstract要約: 本稿では,宇宙船近接制御のための安全保証型,実行時効率の模倣学習フレームワークを提案する。
安全証明書にはCBF(Control Barrier Functions)、安定性にはCLF(Control Lyapunov Functions)を活用しています。
実行時分析では、市販のオフザシェルフプロセッサでリアルタイムに実現可能であることを示し、安全クリティカルな軌道上サービスのためのオンボードデプロイメントをサポートする。
- 参考スコア(独自算出の注目度): 39.146761527401424
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a safety-guaranteed, runtime-efficient imitation learning framework for spacecraft close proximity control. We leverage Control Barrier Functions (CBFs) for safety certificates and Control Lyapunov Functions (CLFs) for stability as unified design principles across data generation, training, and deployment. First, a nonlinear Model Predictive Control (NMPC) expert enforces CBF constraints to provide safe reference trajectories. Second, we train a neural policy with a novel CBF-CLF-informed loss and DAgger-like rollouts with curriculum weighting, promoting data-efficiency and reducing future safety filter interventions. Third, at deployment a lightweight one-step CBF-CLF quadratic program minimally adjusts the learned control input to satisfy hard safety constraints while encouraging stability. We validate the approach for ESA-compliant close proximity operations, including fly-around with a spherical keep-out zone and final approach inside a conical approach corridor, using the Basilisk high-fidelity simulator with nonlinear dynamics and perturbations. Numerical experiments indicate stable convergence to decision points and strict adherence to safety under the filter, with task performance comparable to the NMPC expert while significantly reducing online computation. A runtime analysis demonstrates real-time feasibility on a commercial off-the-shelf processor, supporting onboard deployment for safety-critical on-orbit servicing.
- Abstract(参考訳): 本稿では,宇宙船近接制御のための安全保証型,実行時効率の模倣学習フレームワークを提案する。
安全証明書にはCBF(Control Barrier Functions)、安定性にはCLF(Control Lyapunov Functions)を活用しています。
まず、非線形モデル予測制御(NMPC)の専門家がCBFの制約を適用し、安全な参照軌道を提供する。
第2に,新たなCBF-CLFインフォームドロスとDAggerライクなロールアウト,カリキュラム重み付け,データ効率の向上,将来的な安全フィルタ介入の削減によるニューラルポリシーのトレーニングを行う。
第三に、軽量のワンステップCBF-CLF二次プログラムは、学習した制御入力を最小限に調整し、安定性を向上しつつ、ハードセーフティの制約を満たす。
本研究では, 非線形力学と摂動を用いたバシリスク高忠実度シミュレータを用いて, 球状保持領域のフライアラウンドや円錐状アプローチ廊下内への最終アプローチを含む, ESA 準拠の近接操作のアプローチを検証する。
数値実験により、決定点への安定した収束と、NMPCの専門家に匹敵するタスク性能を持つフィルタ下での安全性への厳密な固執が示され、オンライン計算の大幅な削減が図られた。
実行時分析では、市販のオフザシェルフプロセッサでリアルタイムに実現可能であることを示し、安全クリティカルな軌道上サービスのためのオンボードデプロイメントをサポートする。
関連論文リスト
- BarrierSteer: LLM Safety via Learning Barrier Steering [83.12893815611052]
BarrierSteerは、学習した非線形安全性制約を直接モデルの潜在表現空間に埋め込むことで、安全性を形式化する新しいフレームワークである。
BarrierSteerは、敵の成功率を大幅に低下させ、安全でない世代を減少させ、既存の手法より優れていることを示す。
論文 参考訳(メタデータ) (2026-02-23T18:19:46Z) - Stable and Safe Reinforcement Learning via a Barrier-Lyapunov
Actor-Critic Approach [1.8924647429604111]
Barrier-Lyapunov Actor-Critic(BLAC)フレームワークは、前述のシステムの安全性と安定性の維持を支援する。
RLベースのコントローラが有効な制御信号を提供できない場合、追加のバックアップコントローラが導入される。
論文 参考訳(メタデータ) (2023-04-08T16:48:49Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Pointwise Feasibility of Gaussian Process-based Safety-Critical Control
under Model Uncertainty [77.18483084440182]
制御バリア関数(CBF)と制御リアプノフ関数(CLF)は、制御システムの安全性と安定性をそれぞれ強化するための一般的なツールである。
本稿では, CBF と CLF を用いた安全クリティカルコントローラにおいて, モデル不確実性に対処するためのガウスプロセス(GP)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-13T23:08:49Z) - Reinforcement Learning for Safety-Critical Control under Model
Uncertainty, using Control Lyapunov Functions and Control Barrier Functions [96.63967125746747]
強化学習フレームワークは、CBFおよびCLF制約に存在するモデル不確実性を学ぶ。
RL-CBF-CLF-QPは、安全制約におけるモデル不確実性の問題に対処する。
論文 参考訳(メタデータ) (2020-04-16T10:51:33Z) - Learning Control Barrier Functions from Expert Demonstrations [69.23675822701357]
制御障壁関数(CBF)に基づく安全な制御器合成のための学習に基づくアプローチを提案する。
最適化に基づくCBFの学習手法を解析し、基礎となる力学系のリプシッツ仮定の下で証明可能な安全保証を享受する。
私たちの知る限りでは、これらはデータから確実に安全な制御障壁関数を学習する最初の結果です。
論文 参考訳(メタデータ) (2020-04-07T12:29:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。