論文の概要: Sample-Free Safety Assessment of Neural Network Controllers via Taylor Methods
- arxiv url: http://arxiv.org/abs/2602.11332v1
- Date: Wed, 11 Feb 2026 20:06:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.51995
- Title: Sample-Free Safety Assessment of Neural Network Controllers via Taylor Methods
- Title(参考訳): Taylor法によるニューラルネットワーク制御器のサンプルフリー安全性評価
- Authors: Adam Evans, Roberto Armellin,
- Abstract要約: 本研究は、自動ドメイン分割とバウンディングコントローラを用いて、トレーニング済みニューラルネットワークコントローラの安全性を評価する手法を開発する。
この手法は、トレーニングされたニューラルネットワークをシステムの力学方程式に埋め込むことで、クローズドループシステムを自律的にレンダリングする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In recent years, artificial neural networks have been increasingly studied as feedback controllers for guidance problems. While effective in complex scenarios, they lack the verification guarantees found in classical guidance policies. Their black-box nature creates significant concerns regarding trustworthiness, limiting their adoption in safety-critical spaceflight applications. This work addresses this gap by developing a method to assess the safety of a trained neural network feedback controller via automatic domain splitting and polynomial bounding. The methodology involves embedding the trained neural network into the system's dynamical equations, rendering the closed-loop system autonomous. The system flow is then approximated by high-order Taylor polynomials, which are subsequently manipulated to construct polynomial maps that project state uncertainties onto an event manifold. Automatic domain splitting ensures the polynomials are accurate over their relevant subdomains, whilst also allowing an extensive state-space to be analysed efficiently. Utilising polynomial bounding techniques, the resulting event values may be rigorously constrained and analysed within individual subdomains, thereby establishing bounds on the range of possible closed-loop outcomes from using such neural network controllers and supporting safety assessment and informed operational decision-making in real-world missions.
- Abstract(参考訳): 近年、人工知能はガイダンス問題に対するフィードバックコントローラとして研究されている。
複雑なシナリオでは有効であるが、古典的なガイダンスポリシーに見られる検証保証が欠如している。
ブラックボックスの性質は、安全上重要な宇宙飛行の応用を制限し、信頼性に関する重要な懸念を生んでいる。
本研究は、自動ドメイン分割と多項式バウンディングによるトレーニング済みニューラルネットワークフィードバックコントローラの安全性を評価する手法を開発することにより、このギャップに対処する。
この手法は、トレーニングされたニューラルネットワークをシステムの力学方程式に埋め込むことで、クローズドループシステムを自律的にレンダリングする。
系のフローは高階テイラー多項式によって近似され、その後、状態の不確かさを事象多様体に射影する多項式写像を構成するように操作される。
自動領域分割は、多項式が関連するサブドメインに対して正確であることを保証する一方で、広範な状態空間を効率的に解析することを可能にする。
多項式バウンディング技術を用いることで、結果のイベント値は個々のサブドメイン内で厳密に制約され分析され、それによって、そのようなニューラルネットワークコントローラの使用によるクローズドループ結果の範囲のバウンダリを確立し、安全性評価と実世界のミッションにおける情報操作決定を支援する。
関連論文リスト
- Scalable Verification of Neural Control Barrier Functions Using Linear Bound Propagation [50.53301323864253]
制御バリア関数 (CBF) は非線形動的制御システムの安全性を保証するための一般的なツールである。
本稿では,ニューラルネットワークがCBFとなるために必要な条件に対して,一方向に線形な上界と下界に基づいて,ニューラルCBFを検証するための新しい枠組みを提案する。
我々のアプローチは、CBFの最先端の検証手順よりも大きなニューラルネットワークにスケールする。
論文 参考訳(メタデータ) (2025-11-09T11:51:15Z) - Certified Neural Approximations of Nonlinear Dynamics [51.01318247729693]
安全クリティカルな文脈では、神経近似の使用は、基礎となるシステムとの密接性に公式な境界を必要とする。
本稿では,認証された一階述語モデルに基づく新しい,適応的で並列化可能な検証手法を提案する。
論文 参考訳(メタデータ) (2025-05-21T13:22:20Z) - Provably-Safe Neural Network Training Using Hybrid Zonotope Reachability Analysis [2.1198879079315573]
安全クリティカルな制御アプリケーションにおいて、ニューラルネットワークの制約を強制することは困難である。
本稿では,線形整列線形ユニット(ReLU)非線形性を持つニューラルネットワークに対して,非ハイブリッド入力セットの正確な画像化を促進する手法を提案する。
論文 参考訳(メタデータ) (2025-01-22T17:13:48Z) - Building Hybrid B-Spline And Neural Network Operators [0.0]
制御システムはサイバー物理システム(CPS)の安全性を確保するために不可欠である
本稿では,B-スプラインの帰納バイアスとデータ駆動型ニューラルネットワークを組み合わせることで,CPS行動のリアルタイム予測を容易にする手法を提案する。
論文 参考訳(メタデータ) (2024-06-06T21:54:59Z) - Scaling #DNN-Verification Tools with Efficient Bound Propagation and
Parallel Computing [57.49021927832259]
ディープニューラルネットワーク(DNN)は多くのシナリオで異常な結果を示した強力なツールです。
しかし、それらの複雑な設計と透明性の欠如は、現実世界のアプリケーションに適用する際の安全性上の懸念を提起する。
DNNの形式的検証(FV)は、安全面の証明可能な保証を提供する貴重なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-12-10T13:51:25Z) - From NeurODEs to AutoencODEs: a mean-field control framework for
width-varying Neural Networks [68.8204255655161]
本稿では,動的に駆動する制御フィールドをベースとした,AutoencODEと呼ばれる新しいタイプの連続時間制御システムを提案する。
損失関数が局所凸な領域では,多くのアーキテクチャが復元可能であることを示す。
論文 参考訳(メタデータ) (2023-07-05T13:26:17Z) - OVERT: An Algorithm for Safety Verification of Neural Network Control
Policies for Nonlinear Systems [31.3812947670948]
本稿では,ニューラルネットワーク制御ポリシーの安全性検証のための音響アルゴリズムOVERTを提案する。
OVERT の中心的な概念は、最適にきつく片方向の線形境界を持つ非線形関数を抽象化することである。
オーバートは、到達可能な集合の時間的および厳密性の両方において、既存の方法と好意的に比較する。
論文 参考訳(メタデータ) (2021-08-03T00:41:27Z) - Constrained Feedforward Neural Network Training via Reachability
Analysis [0.0]
安全上の制約に従うためにニューラルネットワークをトレーニングすることは、依然としてオープンな課題である。
本研究は, 整列線形単位(ReLU)非線形性を持つフィードフォワードニューラルネットワークを同時に訓練し, 検証する制約付き手法を提案する。
論文 参考訳(メタデータ) (2021-07-16T04:03:01Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Enforcing robust control guarantees within neural network policies [76.00287474159973]
本稿では、ニューラルネットワークによってパラメータ化され、ロバスト制御と同じ証明可能なロバスト性基準を適用した、一般的な非線形制御ポリシークラスを提案する。
提案手法は,複数の領域において有効であり,既存のロバスト制御法よりも平均ケース性能が向上し,(非ロバスト)深部RL法よりも最悪のケース安定性が向上した。
論文 参考訳(メタデータ) (2020-11-16T17:14:59Z) - Reach-SDP: Reachability Analysis of Closed-Loop Systems with Neural
Network Controllers via Semidefinite Programming [19.51345816555571]
本稿では,ニューラルネットワークを用いた線形時間変化システムの安全性検証のための新しいフォワードリーチビリティ解析手法を提案する。
半有限計画法を用いて、これらの近似到達可能な集合を計算できることが示される。
提案手法は,まずディープニューラルネットワークを用いて非線形モデル予測制御器を近似し,その解析ツールを用いて閉ループシステムの有限時間到達性と制約満足度を証明した。
論文 参考訳(メタデータ) (2020-04-16T18:48:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。