論文の概要: Lipschitz-Based Robustness Certification for Recurrent Neural Networks via Convex Relaxation
- arxiv url: http://arxiv.org/abs/2509.17898v1
- Date: Mon, 22 Sep 2025 15:26:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.46446
- Title: Lipschitz-Based Robustness Certification for Recurrent Neural Networks via Convex Relaxation
- Title(参考訳): 凸緩和によるリカレントニューラルネットワークのリプシッツに基づくロバスト性証明
- Authors: Paul Hamelbeck, Johannes Schiffer,
- Abstract要約: 本稿では,RNNの層間相互作用を凸問題としてモデル化する緩和法であるRNN-SDPを提案する。
また、既知の入力制約を組み込んで得られるリプシッツ境界をさらに強化する拡張についても検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Robustness certification against bounded input noise or adversarial perturbations is increasingly important for deployment recurrent neural networks (RNNs) in safety-critical control applications. To address this challenge, we present RNN-SDP, a relaxation based method that models the RNN's layer interactions as a convex problem and computes a certified upper bound on the Lipschitz constant via semidefinite programming (SDP). We also explore an extension that incorporates known input constraints to further tighten the resulting Lipschitz bounds. RNN-SDP is evaluated on a synthetic multi-tank system, with upper bounds compared to empirical estimates. While incorporating input constraints yields only modest improvements, the general method produces reasonably tight and certifiable bounds, even as sequence length increases. The results also underscore the often underestimated impact of initialization errors, an important consideration for applications where models are frequently re-initialized, such as model predictive control (MPC).
- Abstract(参考訳): 安全クリティカルな制御アプリケーションにおいて、リカレントニューラルネットワーク(RNN)の展開において、境界入力ノイズや対向的摂動に対するロバスト性認証がますます重要になっている。
この課題に対処するため、RNN-SDPは、RNNの層間相互作用を凸問題としてモデル化し、半定値プログラミング(SDP)によりリプシッツ定数上の認定上限を計算する緩和ベースの手法である。
また、既知の入力制約を組み込んで得られるリプシッツ境界をさらに強化する拡張についても検討する。
RNN-SDPは, 経験的推定値と比較して上界を有する合成マルチタンクシステムで評価される。
入力制約を組み込むと、最小限の改善しか得られないが、一般的な手法では、シーケンス長が増大しても、適度に厳密で証明可能な境界が生成される。
この結果は、モデル予測制御(MPC)のようなモデルの再初期化が頻繁に行われるアプリケーションにとって重要な考慮事項である初期化エラーの影響を過小評価している。
関連論文リスト
- A Scalable Approach for Safe and Robust Learning via Lipschitz-Constrained Networks [2.8960888722909566]
ニューラルネットワーク(NN)に対するリプシッツ制約付きグローバルトレーニング制約を提案する。
提案手法により,リプシッツ制約NNの定式化が大幅に改善できることが示唆された。
論文 参考訳(メタデータ) (2025-06-30T15:42:23Z) - Policy Verification in Stochastic Dynamical Systems Using Logarithmic Neural Certificates [7.9898826915621965]
我々は、リーチエイド仕様に関する離散時間システムに対するニューラルネットワークポリシーの検証について検討する。
このような検証タスクに対する既存のアプローチは、ニューラルネットワークの計算済みリプシッツ定数に依存している。
我々は既存のアプローチよりも小さなリプシッツ定数を得るための2つの重要な貢献を提示する。
論文 参考訳(メタデータ) (2024-06-02T18:19:19Z) - ECLipsE: Efficient Compositional Lipschitz Constant Estimation for Deep Neural Networks [0.8993153817914281]
リプシッツ定数は、入力摂動に対するニューラルネットワークの堅牢性を証明する上で重要な役割を果たす。
リプシッツ定数の厳密な上界を得る努力がなされている。
ディープフィードフォワードニューラルネットワークに対するリプシッツ定数を推定するための構成的アプローチを提案する。
論文 参考訳(メタデータ) (2024-04-05T19:36:26Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Lipschitz Continuity Retained Binary Neural Network [52.17734681659175]
我々は,BNNのモデルロバスト性を定義するための厳密な基準として,リプシッツ連続性を導入する。
次に、モデルロバスト性を改善するための正規化項としてリプシッツ連続性を維持することを提案する。
実験により,我々のBNN固有の正規化手法は,BNNの堅牢性を効果的に強化できることが証明された。
論文 参考訳(メタデータ) (2022-07-13T22:55:04Z) - Chordal Sparsity for Lipschitz Constant Estimation of Deep Neural
Networks [77.82638674792292]
ニューラルネットワークのリプシッツ定数は、画像分類の堅牢性、コントローラ設計の安全性、トレーニングデータを超えた一般化性を保証する。
リプシッツ定数の計算はNPハードであるため、リプシッツ定数を推定する手法はスケーラビリティと精度のトレードオフをナビゲートする必要がある。
本研究では,LipSDPと呼ばれる半定値プログラミング手法のスケーラビリティフロンティアを大幅に推し進め,精度の損失をゼロにする。
論文 参考訳(メタデータ) (2022-04-02T11:57:52Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Robust Implicit Networks via Non-Euclidean Contractions [63.91638306025768]
暗黙のニューラルネットワークは、精度の向上とメモリ消費の大幅な削減を示す。
彼らは不利な姿勢と収束の不安定さに悩まされる。
本論文は,ニューラルネットワークを高機能かつ頑健に設計するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2021-06-06T18:05:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。