論文の概要: Learning Neural Contracting Dynamics: Extended Linearization and Global Guarantees
- arxiv url: http://arxiv.org/abs/2402.08090v3
- Date: Wed, 29 May 2024 23:05:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-31 21:05:54.229794
- Title: Learning Neural Contracting Dynamics: Extended Linearization and Global Guarantees
- Title(参考訳): ニューラルコントラクトのダイナミクスを学習する - 線形化の拡張とグローバルな保証
- Authors: Sean Jaffe, Alexander Davydov, Deniz Lapsekili, Ambuj Singh, Francesco Bullo,
- Abstract要約: 拡張線形化契約力学(ELCD)は,グローバルな契約性を保証するニューラルネットワークベースの力学系である。
最も基本的な形では、ELCDは(i)グローバル指数的に安定であり、(ii)平衡収縮であり、(iii)ある計量に関してグローバルに収縮することが保証される。
我々は,高次元LASA,マルチリンク振り子,ローゼンブロックデータセット上でのELCDの性能を示す。
- 参考スコア(独自算出の注目度): 43.71741802581781
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Global stability and robustness guarantees in learned dynamical systems are essential to ensure well-behavedness of the systems in the face of uncertainty. We present Extended Linearized Contracting Dynamics (ELCD), the first neural network-based dynamical system with global contractivity guarantees in arbitrary metrics. The key feature of ELCD is a parametrization of the extended linearization of the nonlinear vector field. In its most basic form, ELCD is guaranteed to be (i) globally exponentially stable, (ii) equilibrium contracting, and (iii) globally contracting with respect to some metric. To allow for contraction with respect to more general metrics in the data space, we train diffeomorphisms between the data space and a latent space and enforce contractivity in the latent space, which ensures global contractivity in the data space. We demonstrate the performance of ELCD on the high dimensional LASA, multi-link pendulum, and Rosenbrock datasets.
- Abstract(参考訳): 学習力学系におけるグローバルな安定性と堅牢性を保証することは、不確実性に直面したシステムの健全性を保証するために不可欠である。
拡張線形化契約力学(ELCD)は,グローバルな契約性を保証するニューラルネットワークベースの力学系である。
ELCDの鍵となる特徴は、非線形ベクトル場の拡張線型化のパラメトリゼーションである。
最も基本的な形では、ELCDは保証される。
(i)グローバルに指数関数的に安定する
(二)均衡縮小、及び
(三)世界規模のメートル法に関する契約
データ空間におけるより一般的なメトリクスに対する縮約を可能にするため、データ空間と潜在空間の間の微分同相を訓練し、潜在空間における縮約を強制し、データ空間における大域的縮約性を保証する。
我々は,高次元LASA,マルチリンク振り子,ローゼンブロックデータセット上でのELCDの性能を示す。
関連論文リスト
- Ensuring Both Positivity and Stability Using Sector-Bounded Nonlinearity for Systems with Neural Network Controllers [0.0]
完全連結FFNN制御の下で線形系の大域的指数的安定性を示す安定性定理を提案する。
提案手法は,高非線形系における安定性確保の課題を効果的に解決する。
出力フィードバック制御データに基づいて訓練されたFFNNによって管理される線形システムにおいて,本手法の実践的適用性を示す。
論文 参考訳(メタデータ) (2024-06-18T16:05:57Z) - Learning Dynamical Systems Encoding Non-Linearity within Space Curvature [9.972829990880369]
動的システム(DS)は、ロボット制御のための高レベルポリシーを効果的かつ強力に形成する手段である。
DSの現在の学習戦略は、しばしばトレードオフを伴い、安定性を保証するかオフラインの計算効率を犠牲にする。
ロボット制御のための非線形DSを学習的に安定させる幾何学的手法を提案する。
論文 参考訳(メタデータ) (2024-03-18T16:42:39Z) - The Risk of Federated Learning to Skew Fine-Tuning Features and
Underperform Out-of-Distribution Robustness [50.52507648690234]
フェデレートされた学習は、微調整された特徴をスキイングし、モデルの堅牢性を損なうリスクがある。
3つのロバスト性指標を導入し、多様なロバストデータセットで実験を行う。
提案手法は,パラメータ効率のよい微調整手法を含む多種多様なシナリオにまたがるロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-25T09:18:51Z) - Neural Contractive Dynamical Systems [13.046426079291376]
完全自律型ロボットが望ましくない、あるいは潜在的に有害な行動を起こさないためには、安定性の保証が不可欠である。
本稿では,ニューラルアーキテクチャが収縮を保証するニューラル収縮力学系を学習するための新しい手法を提案する。
提案手法は, 現状技術よりも所望の力学を正確に符号化し, 安定性の保証がより少ないことを示す。
論文 参考訳(メタデータ) (2024-01-17T17:18:21Z) - Convergence of mean-field Langevin dynamics: Time and space
discretization, stochastic gradient, and variance reduction [49.66486092259376]
平均場ランゲヴィンダイナミクス(英: mean-field Langevin dynamics、MFLD)は、分布依存のドリフトを含むランゲヴィン力学の非線形一般化である。
近年の研究では、MFLDは測度空間で機能するエントロピー規則化された凸関数を地球規模で最小化することが示されている。
有限粒子近似,時間分散,勾配近似による誤差を考慮し,MFLDのカオスの均一時間伝播を示す枠組みを提供する。
論文 参考訳(メタデータ) (2023-06-12T16:28:11Z) - Machine learning in and out of equilibrium [58.88325379746631]
我々の研究は、統計物理学から適応したフォッカー・プランク法を用いて、これらの平行線を探索する。
我々は特に、従来のSGDでは平衡が切れている長期的限界におけるシステムの定常状態に焦点を当てる。
本稿では,ミニバッチの置き換えを伴わない新しいランゲヴィンダイナミクス(SGLD)を提案する。
論文 参考訳(メタデータ) (2023-06-06T09:12:49Z) - Disentangled Federated Learning for Tackling Attributes Skew via
Invariant Aggregation and Diversity Transferring [104.19414150171472]
属性は、クライアント間の一貫した最適化方向から、現在の連邦学習(FL)フレームワークを歪めます。
本稿では,ドメイン固有属性とクロス不変属性を2つの補足枝に分離するために,非絡み付きフェデレーション学習(DFL)を提案する。
実験により、DFLはSOTA FL法と比較して高い性能、より良い解釈可能性、より高速な収束率でFLを促進することが確認された。
論文 参考訳(メタデータ) (2022-06-14T13:12:12Z) - Towards Robust Unsupervised Disentanglement of Sequential Data -- A Case
Study Using Music Audio [17.214062755082065]
Disentangled Sequence Autoencoder (DSAE) は確率的グラフィカルモデルのクラスを表す。
バニラDSAEはモデルアーキテクチャの選択や動的潜伏変数の容量に敏感であることを示す。
本稿では,まずシーケンスレベルの事前分布を学習する2段階のトレーニングフレームワークTS-DSAEを提案する。
論文 参考訳(メタデータ) (2022-05-12T04:11:25Z) - Understanding Overparameterization in Generative Adversarial Networks [56.57403335510056]
generative adversarial network (gans) は、非凹型ミニマックス最適化問題を訓練するために用いられる。
ある理論は、グローバル最適解に対する勾配降下 (gd) の重要性を示している。
ニューラルネットワークジェネレータと線形判別器を併用した多層GANにおいて、GDAは、基礎となる非凹面min-max問題の大域的なサドル点に収束することを示す。
論文 参考訳(メタデータ) (2021-04-12T16:23:37Z) - A Convex Parameterization of Robust Recurrent Neural Networks [3.2872586139884623]
リカレントニューラルネットワーク(Recurrent Neural Network, RNN)は、シーケンシャル・ツー・シーケンス・マップをモデル化するのによく用いられる非線形力学系のクラスである。
安定性とロバスト性を保証するRNNの凸集合を定式化する。
論文 参考訳(メタデータ) (2020-04-11T03:12:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。