論文の概要: Upper Generalization Bounds for Neural Oscillators
- arxiv url: http://arxiv.org/abs/2603.09742v1
- Date: Tue, 10 Mar 2026 14:47:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:24.404778
- Title: Upper Generalization Bounds for Neural Oscillators
- Title(参考訳): ニューラルオシレータの上位一般化境界
- Authors: Zifeng Huang, Konstantin M. Zuev, Yong Xia, Michael Beer,
- Abstract要約: 二階ODEと多層パーセプトロン(MLP)からなるニューラル発振器について検討する。
上部は、連続時間関数空間間の因果作用素と一様連続作用素を近似するために、ほぼ正しい(PAC)。
地震条件下でのブーク-ウェン非線形励振系を考慮した数値実験は,推定誤差の理論的予測パワー則を検証する。
- 参考スコア(独自算出の注目度): 8.075776288865907
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural oscillators that originate from the second-order ordinary differential equations (ODEs) have shown competitive performance in learning mappings between dynamic loads and responses of complex nonlinear structural systems. Despite this empirical success, theoretically quantifying the generalization capacities of their neural network architectures remains undeveloped. In this study, the neural oscillator consisting of a second-order ODE followed by a multilayer perceptron (MLP) is considered. Its upper probably approximately correct (PAC) generalization bound for approximating causal and uniformly continuous operators between continuous temporal function spaces and that for approximating the uniformly asymptotically incrementally stable second-order dynamical systems are derived by leveraging the Rademacher complexity framework. The theoretical results show that the estimation errors grow polynomially with respect to both the MLP size and the time length, thereby avoiding the curse of parametric complexity. Furthermore, the derived error bounds demonstrate that constraining the Lipschitz constants of the MLPs via loss function regularization can improve the generalization ability of the neural oscillator. A numerical study considering a Bouc-Wen nonlinear system under stochastic seismic excitation validates the theoretically predicted power laws of the estimation errors with respect to the sample size and time length, and confirms the effectiveness of constraining MLPs' matrix and vector norms in enhancing the performance of the neural oscillator under limited training data.
- Abstract(参考訳): 2階常微分方程式(ODE)から派生したニューラル発振器は、動的負荷と複雑な非線形構造系の応答との対応を学習する際の競合性能を示す。
この経験的成功にもかかわらず、理論的にはニューラルネットワークアーキテクチャの一般化能力の定量化は未発達のままである。
本研究では、二階ODEと多層パーセプトロン(MLP)からなるニューラル発振器について検討した。
上略略正(PAC)の一般化は、連続時間関数空間間の因果作用素と一様連続作用素を近似し、一様漸進的に安定な二階力学系を近似するために、ラデマッハ複雑性フレームワークを活用することによって導かれる。
理論的には, 推定誤差はMLPサイズと時間長の両方で多項式的に増大し, パラメトリック複雑性の呪いを避けることができる。
さらに,MLPのリプシッツ定数を損失関数正規化により制約することで,ニューラル発振器の一般化能力を向上できることを示した。
確率的地震励振下でのブーク=ウェン非線形系を考慮した数値実験は, 標本サイズと時間長に対する推定誤差の理論的予測力則を検証し, 限られたトレーニングデータの下でのニューラル発振器の性能向上におけるMLP行列とベクトルノルムの制約効果を検証した。
関連論文リスト
- KoopGen: Koopman Generator Networks for Representing and Predicting Dynamical Systems with Continuous Spectra [65.11254608352982]
生成元をベースとしたニューラル・クープマン・フレームワークを導入し,構造的かつ状態に依存したクープマン・ジェネレータの表現を通じて動的にモデル化する。
固有のカルテス分解をスキュー結合および自己結合成分に利用することにより、KoopGenは可逆的な散逸から保守的な輸送を分離する。
論文 参考訳(メタデータ) (2026-02-15T06:32:23Z) - Upper Approximation Bounds for Neural Oscillators [8.075776288865907]
ニューラルネットワークアーキテクチャの容量を定量化する理論は、依然として大きな課題である。
本研究では、二階ODEと多層パーセプトロンからなるニューラル発振器について考察する。
結果は、科学と工学における神経発振器の効果的な応用のための堅牢な理論的基盤を提供する。
論文 参考訳(メタデータ) (2025-11-30T18:20:40Z) - Delay-adaptive Control of Nonlinear Systems with Approximate Neural Operator Predictors [6.093618731228799]
本稿では,未知かつ任意に長いアクチュエータ遅延を持つ非線形システムにおいて,予測器フィードバックコントローラを実装するための厳密な手法を提案する。
予測器の解析的に難解な性質に対処するため,学習したニューラル演算子マッピングを用いて近似した。
ニューラル演算子の普遍近似定理と遅延の輸送偏微分方程式(PDE)表現に基づく理論的安定性解析を行う。
Lyapunov-Krasovskii関数を通して、予測子の近似誤差と遅延境界に依存する力学系の半言語的実践的収束を証明した。
論文 参考訳(メタデータ) (2025-08-28T02:30:53Z) - On the Generalization and Approximation Capacities of Neural Controlled Differential Equations [0.3222802562733786]
Neural Controlled Differential Equations (NCDE) は、不規則サンプル時系列を用いた教師あり学習のための最先端のツールである。
ニューラルネット上の古典的近似結果がNCDEにどのように移行するかを示す。
論文 参考訳(メタデータ) (2023-05-26T10:02:32Z) - Efficient Bound of Lipschitz Constant for Convolutional Layers by Gram
Iteration [122.51142131506639]
循環行列理論を用いて畳み込み層のスペクトルノルムに対して、精密で高速で微分可能な上界を導入する。
提案手法は, 精度, 計算コスト, スケーラビリティの観点から, 他の最先端手法よりも優れていることを示す。
これは畳み込みニューラルネットワークのリプシッツ正則化に非常に効果的であり、並行アプローチに対する競合的な結果である。
論文 参考訳(メタデータ) (2023-05-25T15:32:21Z) - Sharp Spectral Rates for Koopman Operator Learning [27.820383937933034]
クープマン固有値と固有関数に対する非漸近学習境界を初めて提示する。
我々の結果は、突発的固有値の出現に新たな光を当てた。
論文 参考訳(メタデータ) (2023-02-03T21:19:56Z) - Fractal Structure and Generalization Properties of Stochastic
Optimization Algorithms [71.62575565990502]
最適化アルゴリズムの一般化誤差は、その一般化尺度の根底にあるフラクタル構造の複雑性'にバウンドできることを示す。
さらに、特定の問題(リニア/ロジスティックレグレッション、隠れ/層ニューラルネットワークなど)とアルゴリズムに対して、結果をさらに専門化します。
論文 参考訳(メタデータ) (2021-06-09T08:05:36Z) - Consistency of mechanistic causal discovery in continuous-time using
Neural ODEs [85.7910042199734]
ダイナミカルシステムの研究において,連続時間における因果的発見を検討する。
本稿では,ニューラルネットワークを用いた因果探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-05-06T08:48:02Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。