論文の概要: Distributionally Robust Safety Verification of Neural Networks via Worst-Case CVaR
- arxiv url: http://arxiv.org/abs/2509.17413v1
- Date: Mon, 22 Sep 2025 07:04:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.254274
- Title: Distributionally Robust Safety Verification of Neural Networks via Worst-Case CVaR
- Title(参考訳): ワーストケースCVaRによるニューラルネットワークのロバスト安全性検証
- Authors: Masako Kishida,
- Abstract要約: 本稿では、ニューラルネットワーク検証のためのFazlyabの2次制約(QC)と半定値プログラミング(SDP)フレームワークを構築する。
この統合により、入力不確かさをカバーする楕円体、ポリトープ、超平面が拡張され、安全クリティカルドメインへの適用性も拡張される。
- 参考スコア(独自算出の注目度): 3.0458514384586404
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ensuring the safety of neural networks under input uncertainty is a fundamental challenge in safety-critical applications. This paper builds on and expands Fazlyab's quadratic-constraint (QC) and semidefinite-programming (SDP) framework for neural network verification to a distributionally robust and tail-risk-aware setting by integrating worst-case Conditional Value-at-Risk (WC-CVaR) over a moment-based ambiguity set with fixed mean and covariance. The resulting conditions remain SDP-checkable and explicitly account for tail risk. This integration broadens input-uncertainty geometry-covering ellipsoids, polytopes, and hyperplanes-and extends applicability to safety-critical domains where tail-event severity matters. Applications to closed-loop reachability of control systems and classification are demonstrated through numerical experiments, illustrating how the risk level $\varepsilon$ trades conservatism for tolerance to tail events-while preserving the computational structure of prior QC/SDP methods for neural network verification and robustness analysis.
- Abstract(参考訳): 入力不確実性の下でニューラルネットワークの安全性を確保することは、安全クリティカルなアプリケーションにおいて基本的な課題である。
本稿では,ニューラルネットワーク検証のためのFazlyabの2次制約(QC)と半定値プログラミング(SDP)フレームワークを,最悪のケースである条件付き値-アット・リスク(WC-CVaR)を,一定平均と共分散を持つモーメントベースのあいまいさセット上で統合することにより,分散的堅牢かつテールリスク認識設定に拡張する。
結果の条件は SDP チェック可能であり、テールリスクを明示的に考慮している。
この統合により、入力不確かさをカバーする楕円体、ポリトープ、超平面が広くなり、テールエフェクト重大性が重要となる安全クリティカルドメインへの適用性も拡大する。
ニューラルネットワークの検証とロバストネス解析のための従来のQC/SDP手法の計算構造を保ちながら、テールイベントに対する耐性を保ちながら、リスクレベル$\varepsilon$のトレーサビリティがいかにして維持されるかを示す数値実験により、制御システムのクローズループ到達性と分類の応用が実証された。
関連論文リスト
- Lipschitz-Based Robustness Certification for Recurrent Neural Networks via Convex Relaxation [0.0]
本稿では,RNNの層間相互作用を凸問題としてモデル化する緩和法であるRNN-SDPを提案する。
また、既知の入力制約を組み込んで得られるリプシッツ境界をさらに強化する拡張についても検討する。
論文 参考訳(メタデータ) (2025-09-22T15:26:46Z) - Probabilistic Robustness Analysis in High Dimensional Space: Application to Semantic Segmentation Network [6.587910936799125]
本稿では,アーキテクチャに依存しない,スケーラブルで高次元出力が可能な確率的検証フレームワークを提案する。
提案手法は,サンプルベースリーチビリティ解析と共形推論(CI)を組み合わせて,証明可能な保証を提供する。
提案手法は,SOTAに比べて厳密な境界を保ちながら,信頼性の高い安全保証を提供することを示す。
論文 参考訳(メタデータ) (2025-09-15T12:25:25Z) - Enhancing Uncertainty Quantification for Runtime Safety Assurance Using Causal Risk Analysis and Operational Design Domain [0.0]
本研究では,環境条件を明確に取り入れた従来の不確実性定量化の強化を提案する。
本研究では,ハザード解析・リスクアセスメント(HARA)とフォールトツリーモデリングを活用し,システム機能に影響を及ぼす重要な運用条件を特定する。
実行時に、このBNはリアルタイム環境観測を用いてインスタンス化され、安全推定よりも確率分布を推定する。
論文 参考訳(メタデータ) (2025-07-04T12:12:32Z) - COIN: Uncertainty-Guarding Selective Question Answering for Foundation Models with Provable Risk Guarantees [51.5976496056012]
COINは、統計的に有効な閾値を校正し、質問毎に1つの生成された回答をフィルタリングする不確実性保護選択フレームワークである。
COINはキャリブレーションセット上で経験的誤差率を推定し、信頼区間法を適用して真誤差率に高い確率上界を確立する。
リスク管理におけるCOINの堅牢性,許容回答を維持するための強いテストタイムパワー,キャリブレーションデータによる予測効率を実証する。
論文 参考訳(メタデータ) (2025-06-25T07:04:49Z) - Advancing Neural Network Verification through Hierarchical Safety Abstract Interpretation [52.626086874715284]
我々は、安全でない出力の階層構造を検証する抽象的DNN検証と呼ばれる新しい問題定式化を導入する。
出力到達可能な集合に関する抽象的解釈と推論を活用することにより,形式的検証プロセスにおいて,複数の安全性レベルを評価することができる。
我々の貢献には、新しい抽象的安全性の定式化と既存のアプローチとの関係を理論的に探求することが含まれる。
論文 参考訳(メタデータ) (2025-05-08T13:29:46Z) - Risk-Averse Certification of Bayesian Neural Networks [70.44969603471903]
本稿では,RAC-BNNと呼ばれるベイズニューラルネットワークに対するリスク・アバース認証フレームワークを提案する。
提案手法はサンプリングと最適化を利用して,BNNの出力集合の音響近似を計算する。
我々は,RAC-BNNを回帰および分類ベンチマークで検証し,その性能を最先端の手法と比較した。
論文 参考訳(メタデータ) (2024-11-29T14:22:51Z) - Distributionally Robust Policy and Lyapunov-Certificate Learning [13.38077406934971]
不確実なシステムに対する安定性を保証するコントローラの設計における重要な課題は、オンラインデプロイメント中のモデルパラメトリック不確実性の変化の正確な決定と適応である。
我々は、リアプノフ証明書の単調な減少を保証するために、リアプノフ微分チャンス制約を分布的に頑健に定式化することで、この問題に取り組む。
得られた閉ループシステムに対して、その平衡のグローバルな安定性は、アウト・オブ・ディストリビューションの不確実性があっても高い信頼性で証明できることを示す。
論文 参考訳(メタデータ) (2024-04-03T18:57:54Z) - Wasserstein Distributionally Robust Control Barrier Function using
Conditional Value-at-Risk with Differentiable Convex Programming [4.825619788907192]
制御バリア関数 (CBF) は、現実世界の安全クリティカルシステムのための安全なコントローラの設計に広く注目を集めている。
分布変化下でのレジリエンスを達成するために, 分散ロバストCBFを提案する。
また、高次システムに対するDR-CBFの近似変種も提供する。
論文 参考訳(メタデータ) (2023-09-15T18:45:09Z) - Capsa: A Unified Framework for Quantifying Risk in Deep Neural Networks [142.67349734180445]
ディープニューラルネットワークにリスク認識を提供する既存のアルゴリズムは複雑でアドホックである。
ここでは、リスク認識でモデルを拡張するためのフレームワークであるcapsaを紹介します。
論文 参考訳(メタデータ) (2023-08-01T02:07:47Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Pointwise Feasibility of Gaussian Process-based Safety-Critical Control
under Model Uncertainty [77.18483084440182]
制御バリア関数(CBF)と制御リアプノフ関数(CLF)は、制御システムの安全性と安定性をそれぞれ強化するための一般的なツールである。
本稿では, CBF と CLF を用いた安全クリティカルコントローラにおいて, モデル不確実性に対処するためのガウスプロセス(GP)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-13T23:08:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。