論文の概要: Formal Safety Verification and Refinement for Generative Motion Planners via Certified Local Stabilization
- arxiv url: http://arxiv.org/abs/2509.19688v1
- Date: Wed, 24 Sep 2025 01:54:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.65878
- Title: Formal Safety Verification and Refinement for Generative Motion Planners via Certified Local Stabilization
- Title(参考訳): 局所安定化認証による生成型運動プランナの形式的安全性検証とリファインメント
- Authors: Devesh Nath, Haoran Yin, Glen Chou,
- Abstract要約: 本稿では,学習に基づく生成運動プランナの安全性検証手法を提案する。
ジェネレーティブ・モーション・プランナー(GMP)は、従来のプランナーよりも利点があるが、それらの出力の安全性と動的実現性を検証することは困難である。
- 参考スコア(独自算出の注目度): 8.09931279904483
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a method for formal safety verification of learning-based generative motion planners. Generative motion planners (GMPs) offer advantages over traditional planners, but verifying the safety and dynamic feasibility of their outputs is difficult since neural network verification (NNV) tools scale only to a few hundred neurons, while GMPs often contain millions. To preserve GMP expressiveness while enabling verification, our key insight is to imitate the GMP by stabilizing references sampled from the GMP with a small neural tracking controller and then applying NNV to the closed-loop dynamics. This yields reachable sets that rigorously certify closed-loop safety, while the controller enforces dynamic feasibility. Building on this, we construct a library of verified GMP references and deploy them online in a way that imitates the original GMP distribution whenever it is safe to do so, improving safety without retraining. We evaluate across diverse planners, including diffusion, flow matching, and vision-language models, improving safety in simulation (on ground robots and quadcopters) and on hardware (differential-drive robot).
- Abstract(参考訳): 本稿では,学習に基づく生成運動プランナの安全性検証手法を提案する。
ジェネレーティブ・モーション・プランナー(GMP)は従来のプランナーよりも利点があるが、ニューラルネットワーク検証(NNV)ツールが数百のニューロンにしか拡張できないのに対して、GMPには数百万のニューロンがあるため、アウトプットの安全性と動的実現性を検証することは難しい。
検証を可能としながらGMP表現性を保ちつつ、我々の重要な洞察は、GMPからサンプリングされた参照を小さなニューラルトラッキングコントローラで安定化し、NNVを閉ループ力学に適用することでGMPを模倣することである。
これにより、クローズドループの安全性を厳格に証明するリーチブルセットが得られ、コントローラは動的実現性を実行する。
これに基づいて、検証済みのGMP参照のライブラリを構築し、元のGMPディストリビューションを模倣してオンラインにデプロイする。
我々は,拡散,フローマッチング,視覚言語モデルなどの多種多様なプランナーを評価し,シミュレーション(地上ロボットやクワッドコプター)やハードウェア(微分駆動ロボット)の安全性を改善した。
関連論文リスト
- Safely Learning Controlled Stochastic Dynamics [61.82896036131116]
システム力学の安全な探索と効率的な推定を可能にする手法を提案する。
学習後、学習モデルはシステムのダイナミクスの予測を可能にし、任意の制御の安全性検証を可能にする。
我々は、真の力学のソボレフ正則性を高めることにより、安全性と適応学習率の向上を理論的に保証する。
論文 参考訳(メタデータ) (2025-06-03T11:17:07Z) - Finite-Sample-Based Reachability for Safe Control with Gaussian Process Dynamics [35.79393879150088]
本稿では,保守主義を回避しつつ,モデルの不確実性を効率的に伝播するサンプリングベースフレームワークを提案する。
提案手法は,精度の高い到達可能集合オーバー近似と安全なクローズドループ性能を示す。
論文 参考訳(メタデータ) (2025-05-12T14:20:20Z) - Designing Control Barrier Function via Probabilistic Enumeration for Safe Reinforcement Learning Navigation [55.02966123945644]
本稿では,ニューラルネットワーク検証技術を利用して制御障壁関数(CBF)とポリシー修正機構の設計を行う階層型制御フレームワークを提案する。
提案手法は,安全なCBFベースの制御層を構築するために使用される,安全でない操作領域を特定するための確率的列挙に依存する。
これらの実験は、効率的なナビゲーション動作を維持しながら、安全でない動作を補正する提案手法の能力を実証するものである。
論文 参考訳(メタデータ) (2025-04-30T13:47:25Z) - SafeAuto: Knowledge-Enhanced Safe Autonomous Driving with Multimodal Foundation Models [63.71984266104757]
我々は、構造化されていない知識と構造化されていない知識の両方を取り入れることで、MLLMベースの自動運転を強化するフレームワークであるSafeAutoを提案する。
安全知識を明示的に統合するため,交通ルールを一階述語論理に変換する推論コンポーネントを開発した。
我々のマルチモーダル検索・拡張生成モデルは、過去の運転経験から学ぶために、ビデオ、制御信号、環境特性を活用する。
論文 参考訳(メタデータ) (2025-02-28T21:53:47Z) - On Almost Surely Safe Alignment of Large Language Models at Inference-Time [20.5164976103514]
安全応答をほぼ確実に生成することを目的とした,LLMに対する新しい推論時間アライメント手法を提案する。
我々は、安全制約の進化を追跡し、安全でない世代を動的に罰する安全状態を強化する。
我々は,潜在空間におけるMDPを十分に大きな罰則で解く際に,与えられたコストモデルに対して公式な安全保証を示す。
論文 参考訳(メタデータ) (2025-02-03T09:59:32Z) - Effective Tuning Strategies for Generalist Robot Manipulation Policies [45.36380662552082]
汎用ロボット操作ポリシー(GMP)は、幅広いタスク、デバイス、環境にまたがって一般化する可能性がある。
ファインチューニングは、新しいドメインやタスクに限られたサンプルで迅速に適応する実用的な方法であるが、その結果のGMPの性能は、ファインチューニング戦略の設計選択に関して大きく異なる。
論文 参考訳(メタデータ) (2024-10-02T04:00:25Z) - Model-based Dynamic Shielding for Safe and Efficient Multi-Agent
Reinforcement Learning [7.103977648997475]
MARL(Multi-Agent Reinforcement Learning)は、報酬を最大化するが、学習と展開フェーズにおいて安全保証を持たないポリシーを発見する。
MARLアルゴリズム設計をサポートするモデルベース動的シールド(MBDS)。
論文 参考訳(メタデータ) (2023-04-13T06:08:10Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Scalable Synthesis of Verified Controllers in Deep Reinforcement
Learning [0.0]
高品質の安全シールドを合成できる自動検証パイプラインを提案します。
私たちの重要な洞察は、事前に計算された安全シールドを使用して神経コントローラのトレーニングを制限し、神経コントローラから安全検証を分離することを含みます。
実測的な高次元深部RLベンチマークによる実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2021-04-20T19:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。