論文の概要: (Un)supervised Learning of Maximal Lyapunov Functions
- arxiv url: http://arxiv.org/abs/2408.17246v2
- Date: Mon, 26 May 2025 12:43:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:41.913463
- Title: (Un)supervised Learning of Maximal Lyapunov Functions
- Title(参考訳): (Un)最大リアプノフ関数の教師付き学習
- Authors: Matthieu Barreau, Nicola Bastianello,
- Abstract要約: 我々は、(最大)リャプノフ関数の普遍近似器であることが証明された新しいニューラルネットワークアーキテクチャを設計する。
我々は、動的制約を伴う教師なし最適化問題として、リアプノフ関数を訓練する問題を定式化する。
提案手法は,アトラクションの近似領域の精度において,最先端の代替品と一致するか,より優れているかを示す。
- 参考スコア(独自算出の注目度): 0.4910937238451484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we address the problem of discovering maximal Lyapunov functions, as a means of determining the region of attraction of a dynamical system. To this end, we design a novel neural network architecture, which we prove to be a universal approximator of (maximal) Lyapunov functions. The architecture combines a local quadratic approximation with the output of a neural network, which models global higher-order terms in the Taylor expansion. We formulate the problem of training the Lyapunov function as an unsupervised optimization problem with dynamical constraints, which can be solved leveraging techniques from physics-informed learning. We propose and analyze a tailored training algorithm, based on the primal-dual algorithm, that can efficiently solve the problem. Additionally, we show how the learning problem formulation can be adapted to integrate data, when available. We apply the proposed approach to different classes of systems, showing that it matches or outperforms state-of-the-art alternatives in the accuracy of the approximated regions of attraction.
- Abstract(参考訳): 本稿では,力学系のアトラクション領域を決定する手段として,最大リアプノフ関数の発見の問題に対処する。
この目的のために、我々は(最大)リアプノフ関数の普遍近似器であることが証明された新しいニューラルネットワークアーキテクチャを設計する。
このアーキテクチャは局所的な二次近似とニューラルネットワークの出力を結合し、テイラー展開のグローバルな高次項をモデル化する。
我々は、動的制約を伴う教師なし最適化問題としてリアプノフ関数を訓練する問題を定式化し、物理情報学習の技法を活用できる。
そこで本研究では,この問題を効果的に解決するアルゴリズムの提案と解析を行う。
さらに,学習問題の定式化がデータ統合にどのように適応できるかを示す。
提案手法を様々なシステムに応用し,アトラクションの近似領域の精度において,最先端の代替品と一致するか,より優れていることを示す。
関連論文リスト
- Neural Lyapunov Function Approximation with Self-Supervised Reinforcement Learning [6.359354545489252]
本稿では,非線形リアプノフ関数のニューラル近似のための新しい,サンプル効率のよい手法を提案する。
提案手法では,データ駆動型ワールドモデルを用いて,都市外軌道からリャプノフ関数を訓練する。
本手法は, 目標条件と目標条件の両方のロボット作業において, より高速な収束と高い近似精度を示す。
論文 参考訳(メタデータ) (2025-03-19T18:29:25Z) - Global Convergence and Rich Feature Learning in $L$-Layer Infinite-Width Neural Networks under $μ$P Parametrization [66.03821840425539]
本稿では, テンソル勾配プログラム(SGD)フレームワークを用いた$L$層ニューラルネットワークのトレーニング力学について検討する。
SGDにより、これらのネットワークが初期値から大きく逸脱する線形独立な特徴を学習できることを示す。
このリッチな特徴空間は、関連するデータ情報をキャプチャし、トレーニングプロセスの収束点が世界最小であることを保証する。
論文 参考訳(メタデータ) (2025-03-12T17:33:13Z) - Chebyshev Polynomial-Based Kolmogorov-Arnold Networks: An Efficient Architecture for Nonlinear Function Approximation [0.0]
本稿では,Chebyshev Kolmogorov-Arnoldの定理に触発された新しいニューラルネットワークアーキテクチャであるChebyshev Kolmogorov-Arnold Networkについて述べる。
ネットワークのエッジ上でChebyshevによってパラメータ化された学習可能な関数を利用することで、Chebyshev Kansは関数近似タスクの柔軟性、効率、解釈性を向上させる。
論文 参考訳(メタデータ) (2024-05-12T07:55:43Z) - Exploring the Frontiers of Softmax: Provable Optimization, Applications in Diffusion Model, and Beyond [32.734716767055836]
本稿では、2層ソフトマックスニューラルネットワークの最適化と一般化特性について理論的研究を行う。
オーバーパラメトリゼーション方式では,ソフトマックスニューラルネットワークが対象関数を学習できることが示されている。
私たちの仕事は、自然言語処理などにおけるさらなる進歩の道を開くものです。
論文 参考訳(メタデータ) (2024-05-06T08:15:29Z) - The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
ニューラルネットワークのような予測器のための新しいトレーニング原理であるLFP(Layer-wise Feedback Propagation)を提案する。
LFPは、与えられたタスクの解決へのそれぞれの貢献に基づいて、個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分を補強し,有害な部分を弱めるという欲求的アプローチを実現する。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - Learning ground states of gapped quantum Hamiltonians with Kernel
Methods [0.0]
本稿では,カーネル手法を用いて最適化を容易にする統計的学習手法を提案する。
提案手法は,電力の次のステップを学習するために教師付き学習を用いる電力法を近似的に実現したものである。
論文 参考訳(メタデータ) (2023-03-15T19:37:33Z) - Offline Reinforcement Learning with Differentiable Function
Approximation is Provably Efficient [65.08966446962845]
歴史的データを用いて意思決定戦略を最適化することを目的としたオフライン強化学習は、現実の応用に広く適用されている。
微分関数クラス近似(DFA)を用いたオフライン強化学習の検討から一歩踏み出した。
最も重要なことは、悲観的な適合Q-ラーニングアルゴリズムを解析することにより、オフライン微分関数近似が有効であることを示すことである。
論文 参考訳(メタデータ) (2022-10-03T07:59:42Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - A Free Lunch with Influence Functions? Improving Neural Network
Estimates with Concepts from Semiparametric Statistics [41.99023989695363]
ニューラルネットワークや機械学習アルゴリズムの改善に使用される半パラメトリック理論の可能性を探る。
本稿では,単一アーキテクチャを用いてアンサンブルの柔軟性と多様性を求めるニューラルネットワーク手法であるMultiNetを提案する。
論文 参考訳(メタデータ) (2022-02-18T09:35:51Z) - Lyapunov-Net: A Deep Neural Network Architecture for Lyapunov Function
Approximation [7.469944784454579]
我々は,リャプノフ関数を高次元で近似するために,リャプノフネットと呼ばれる汎用的なディープニューラルネットワークアーキテクチャを開発した。
Lyapunov-Netは正の定性を保証するため、負の軌道微分条件を満たすように容易に訓練することができる。
論文 参考訳(メタデータ) (2021-09-27T21:42:19Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Credit Assignment in Neural Networks through Deep Feedback Control [59.14935871979047]
ディープフィードバックコントロール(Deep Feedback Control, DFC)は、フィードバックコントローラを使用して、望ましい出力ターゲットにマッチするディープニューラルネットワークを駆動し、クレジット割り当てに制御信号を使用する新しい学習方法である。
学習規則は空間と時間において完全に局所的であり、幅広い接続パターンに対するガウス・ニュートンの最適化を近似する。
さらに,DFCと皮質錐体ニューロンのマルチコンパートメントモデルと,局所的な電圧依存性のシナプス可塑性規則を関連づける。
論文 参考訳(メタデータ) (2021-06-15T05:30:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。