論文の概要: Zubov-Net: Adaptive Stability for Neural ODEs Reconciling Accuracy with Robustness
- arxiv url: http://arxiv.org/abs/2509.21879v1
- Date: Fri, 26 Sep 2025 05:01:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.191555
- Title: Zubov-Net: Adaptive Stability for Neural ODEs Reconciling Accuracy with Robustness
- Title(参考訳): Zubov-Net:ロバストネスで精度を再現するニューラルネットワークの適応安定性
- Authors: Chaoyang Luo, Yan Zou, Nanjing Huang,
- Abstract要約: 本稿ではZubovNetという適応型安定学習フレームワークを提案する。
本稿では,PRoAsを直接最適化することで,ロアの形状を積極的に制御する新しいパラダイムを提案する。
- 参考スコア(独自算出の注目度): 0.16355471507854133
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite neural ordinary differential equations (Neural ODEs) exhibiting intrinsic robustness under input perturbations due to their dynamical systems nature, recent approaches often involve imposing Lyapunov-based stability conditions to provide formal robustness guarantees. However, a fundamental challenge remains: the tension between robustness and accuracy, primarily stemming from the difficulty in imposing appropriate stability conditions. To address this, we propose an adaptive stable learning framework named Zubov-Net, which innovatively reformulates Zubov's equation into a consistency characterization between regions of attraction (RoAs) and prescribed RoAs (PRoAs). Building on this consistency, we introduce a new paradigm for actively controlling the geometry of RoAs by directly optimizing PRoAs to reconcile accuracy and robustness. Our approach is realized through tripartite losses (consistency, classification, and separation losses) and a parallel boundary sampling algorithm that co-optimizes the Neural ODE and the Lyapunov function. To enhance the discriminativity of Lyapunov functions, we design an input-attention-based convex neural network via a softmax attention mechanism that focuses on equilibrium-relevant features and also serves as weight normalization to maintain training stability in deep architectures. Theoretically, we prove that minimizing the tripartite loss guarantees consistent alignment of PRoAs-RoAs, trajectory stability, and non-overlapping PRoAs. Moreover, we establish stochastic convex separability with tighter probability bounds and fewer dimensionality requirements to justify the convex design in Lyapunov functions. Experimentally, Zubov-Net maintains high classification accuracy while significantly improving robustness against various stochastic noises and adversarial attacks.
- Abstract(参考訳): 非線形常微分方程式 (Neural ODEs) は、その力学系の性質による入力摂動の下で固有の頑健性を示すが、近年のアプローチでは、形式的な頑健性を保証するためにリアプノフに基づく安定性条件を課すことがしばしばある。
しかし、基本的な課題は、堅牢性と正確性の間の緊張は、主に適切な安定性条件を課すことの難しさから生じる。
そこで我々は,Zubov-Netという適応型安定学習フレームワークを提案する。このフレームワークは,Zubovの方程式を,アトラクション領域(RoAs)と所定のRoAs(PRoAs)の整合性評価に革新的に再構成する。
この一貫性に基づいて,PRoAsを直接最適化することにより,ロアの形状を積極的に制御する新たなパラダイムを導入する。
提案手法は,三分割損失(一貫性,分類,分離損失)と,ニューラルODEとリアプノフ関数を共最適化する並列境界サンプリングアルゴリズムによって実現される。
Lyapunov関数の識別性を高めるために,平衡関連特徴に着目し,深層建築におけるトレーニング安定性を維持するために重み正規化として機能するソフトマックスアテンション機構を用いて,入力アテンションに基づく凸ニューラルネットワークを設計する。
理論的には,三部体損失の最小化はPRoAs-RoAsの整合性,軌道安定性,非重なり合うPRoAsの整合性を保証する。
さらに、リアプノフ関数の凸設計を正当化するために、より厳密な確率境界を持つ確率凸分離性を確立し、次元要求を少なくする。
実験的に、Zubov-Netは高い分類精度を維持しつつ、様々な確率的雑音や敵攻撃に対する堅牢性を著しく改善している。
関連論文リスト
- COMponent-Aware Pruning for Accelerated Control Tasks in Latent Space Models [1.6874375111244326]
資源制約のあるモバイルプラットフォームの急速な成長により、計算効率の良いニューラルネットワークコントローラ(NNC)の需要が高まっている。
ディープニューラルネットワーク(DNN)は、制御アプリケーションにおいて優れたパフォーマンスを示し、その相当な計算複雑性とメモリ要件は、エッジデバイスへの実践的なデプロイに重大な障壁をもたらす。
本稿では,各プルーニング群に対する最適プルーニングサイズを決定するために,コンポーネント認識型構造化プルーニングを利用した包括的モデル圧縮手法を提案する。
論文 参考訳(メタデータ) (2025-08-11T16:16:51Z) - LyAm: Robust Non-Convex Optimization for Stable Learning in Noisy Environments [0.0]
ディープニューラルネットワークのトレーニング、特にコンピュータビジョンタスクは、ノイズの多い勾配に悩まされることが多い。
我々はAdamの適応モーメント推定とLyapunovに基づく安定性機構を統合する小説LyAmを提案する。
LyAmは、精度、収束性、速度、安定性の点で、最先端設定を一貫して上回る。
論文 参考訳(メタデータ) (2025-07-15T12:35:13Z) - Regulating Model Reliance on Non-Robust Features by Smoothing Input Marginal Density [93.32594873253534]
信頼できる機械学習は、非ロバストな特徴に依存するモデルの厳密な規制を必要とする。
本稿では,モデル予測を入力に関連付けることによって,そのような特徴を記述・規制するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-05T09:16:56Z) - Distributionally Robust Policy and Lyapunov-Certificate Learning [13.38077406934971]
不確実なシステムに対する安定性を保証するコントローラの設計における重要な課題は、オンラインデプロイメント中のモデルパラメトリック不確実性の変化の正確な決定と適応である。
我々は、リアプノフ証明書の単調な減少を保証するために、リアプノフ微分チャンス制約を分布的に頑健に定式化することで、この問題に取り組む。
得られた閉ループシステムに対して、その平衡のグローバルな安定性は、アウト・オブ・ディストリビューションの不確実性があっても高い信頼性で証明できることを示す。
論文 参考訳(メタデータ) (2024-04-03T18:57:54Z) - KCRL: Krasovskii-Constrained Reinforcement Learning with Guaranteed
Stability in Nonlinear Dynamical Systems [66.9461097311667]
形式的安定性を保証するモデルに基づく強化学習フレームワークを提案する。
提案手法は,特徴表現を用いて信頼区間までシステムダイナミクスを学習する。
我々は、KCRLが、基礎となる未知のシステムとの有限数の相互作用において安定化ポリシーを学ぶことが保証されていることを示す。
論文 参考訳(メタデータ) (2022-06-03T17:27:04Z) - Robustness and Accuracy Could Be Reconcilable by (Proper) Definition [109.62614226793833]
強靭性と精度のトレードオフは、敵文学において広く研究されている。
局所的不変性の帰納的バイアスを課す不適切に定義された頑健な誤差に由来する可能性がある。
定義上、SCOREは、最悪のケースの不確実性に対処しながら、堅牢性と正確性の間の和解を促進する。
論文 参考訳(メタデータ) (2022-02-21T10:36:09Z) - Stable Neural ODE with Lyapunov-Stable Equilibrium Points for Defending
Against Adversarial Attacks [32.88499015927756]
我々は,Lyapunov-stable平衡点を持つ安定なニューラル・オードを提案し,敵対的攻撃(SODEF)を防御する。
我々は、SODEFの安定性に関する洞察を与える理論的な結果と、その安定性を確保するための正則化器の選択を提供する。
論文 参考訳(メタデータ) (2021-10-25T14:09:45Z) - Probabilistic robust linear quadratic regulators with Gaussian processes [73.0364959221845]
ガウス過程(GP)のような確率モデルは、制御設計に続く使用のためのデータから未知の動的システムを学ぶための強力なツールです。
本稿では、確率的安定性マージンに関して堅牢なコントローラを生成する線形化GPダイナミクスのための新しいコントローラ合成について述べる。
論文 参考訳(メタデータ) (2021-05-17T08:36:18Z) - Fine-Grained Analysis of Stability and Generalization for Stochastic
Gradient Descent [55.85456985750134]
我々は,SGDの反復的リスクによって制御される新しい境界を開発する,平均モデル安定性と呼ばれる新しい安定性尺度を導入する。
これにより、最良のモデルの振舞いによって一般化境界が得られ、低雑音環境における最初の既知の高速境界が導かれる。
我々の知る限りでは、このことはSGDの微分不能な損失関数でさえも初めて知られている安定性と一般化を与える。
論文 参考訳(メタデータ) (2020-06-15T06:30:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。