論文の概要: Learning Neural Contracting Dynamics: Extended Linearization and Global
Guarantees
- arxiv url: http://arxiv.org/abs/2402.08090v2
- Date: Wed, 14 Feb 2024 22:19:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-16 10:12:09.765894
- Title: Learning Neural Contracting Dynamics: Extended Linearization and Global
Guarantees
- Title(参考訳): ニューラルコントラクトダイナミクスの学習:拡張線形化とグローバル保証
- Authors: Sean Jaffe and Alexander Davydov and Deniz Lapsekili and Ambuj Singh
and Francesco Bullo
- Abstract要約: 拡張線形化契約力学(ELCD)は,グローバルな契約性を保証するニューラルネットワークベースの力学系である。
最も基本的な形では、ELCDは(i)グローバル指数的に安定であり、(ii)平衡収縮であり、(iii)ある計量に関してグローバルに収縮することが保証される。
2ドル,4ドル,8ドルのLASAデータセット上でのELCDの性能を実演する。
- 参考スコア(独自算出の注目度): 46.323667807425025
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Global stability and robustness guarantees in learned dynamical systems are
essential to ensure well-behavedness of the systems in the face of uncertainty.
We present Extended Linearized Contracting Dynamics (ELCD), the first neural
network-based dynamical system with global contractivity guarantees in
arbitrary metrics. The key feature of ELCD is a parametrization of the extended
linearization of the nonlinear vector field. In its most basic form, ELCD is
guaranteed to be (i) globally exponentially stable, (ii) equilibrium
contracting, and (iii) globally contracting with respect to some metric. To
allow for contraction with respect to more general metrics in the data space,
we train diffeomorphisms between the data space and a latent space and enforce
contractivity in the latent space, which ensures global contractivity in the
data space. We demonstrate the performance of ELCD on the $2$D, $4$D, and $8$D
LASA datasets.
- Abstract(参考訳): 学習力学系における大域的安定性とロバスト性保証は、不確実性に直面したシステムの健全性を保証するために不可欠である。
拡張線形化契約力学(ELCD)は,グローバルな契約性を保証するニューラルネットワークベースの力学系である。
ELCDの鍵となる特徴は、非線形ベクトル場の拡張線型化のパラメトリゼーションである。
最も基本的な形では、ELCDは保証される
(i)グローバルに指数関数的に安定する
(ii)均衡収縮、及び
(iii)ある計量に関して世界規模で契約する。
データ空間におけるより一般的なメトリクスに対する縮約を可能にするため、データ空間と潜在空間の間の微分同相を訓練し、潜在空間における縮約を強制し、データ空間における大域的縮約性を保証する。
我々は、elcdのパフォーマンスを$$d、$$$d、$$$d lasaデータセットで実証した。
関連論文リスト
- Learning Dynamical Systems Encoding Non-Linearity within Space Curvature [9.972829990880369]
動的システム(DS)は、ロボット制御のための高レベルポリシーを効果的かつ強力に形成する手段である。
DSの現在の学習戦略は、しばしばトレードオフを伴い、安定性を保証するかオフラインの計算効率を犠牲にする。
ロボット制御のための非線形DSを学習的に安定させる幾何学的手法を提案する。
論文 参考訳(メタデータ) (2024-03-18T16:42:39Z) - Neural Contractive Dynamical Systems [13.046426079291376]
完全自律型ロボットが望ましくない、あるいは潜在的に有害な行動を起こさないためには、安定性の保証が不可欠である。
本稿では,ニューラルアーキテクチャが収縮を保証するニューラル収縮力学系を学習するための新しい手法を提案する。
提案手法は, 現状技術よりも所望の力学を正確に符号化し, 安定性の保証がより少ないことを示す。
論文 参考訳(メタデータ) (2024-01-17T17:18:21Z) - Ensemble Kalman Filtering Meets Gaussian Process SSM for Non-Mean-Field
and Online Inference [50.91823345296243]
我々は,非平均場(NMF)変動推定フレームワークにアンサンブルカルマンフィルタ(EnKF)を導入し,潜在状態の後方分布を近似する。
EnKFとGPSSMのこの新しい結婚は、変分分布の学習における広範なパラメータ化の必要性をなくすだけでなく、エビデンスの下限(ELBO)の解釈可能でクローズドな近似を可能にする。
得られたEnKF支援オンラインアルゴリズムは、データ適合精度を確保しつつ、モデル正規化を組み込んで過度適合を緩和し、目的関数を具現化する。
論文 参考訳(メタデータ) (2023-12-10T15:22:30Z) - Convergence of mean-field Langevin dynamics: Time and space
discretization, stochastic gradient, and variance reduction [49.66486092259376]
平均場ランゲヴィンダイナミクス(英: mean-field Langevin dynamics、MFLD)は、分布依存のドリフトを含むランゲヴィン力学の非線形一般化である。
近年の研究では、MFLDは測度空間で機能するエントロピー規則化された凸関数を地球規模で最小化することが示されている。
有限粒子近似,時間分散,勾配近似による誤差を考慮し,MFLDのカオスの均一時間伝播を示す枠組みを提供する。
論文 参考訳(メタデータ) (2023-06-12T16:28:11Z) - Disentangled Federated Learning for Tackling Attributes Skew via
Invariant Aggregation and Diversity Transferring [104.19414150171472]
属性は、クライアント間の一貫した最適化方向から、現在の連邦学習(FL)フレームワークを歪めます。
本稿では,ドメイン固有属性とクロス不変属性を2つの補足枝に分離するために,非絡み付きフェデレーション学習(DFL)を提案する。
実験により、DFLはSOTA FL法と比較して高い性能、より良い解釈可能性、より高速な収束率でFLを促進することが確認された。
論文 参考訳(メタデータ) (2022-06-14T13:12:12Z) - Towards Robust Unsupervised Disentanglement of Sequential Data -- A Case
Study Using Music Audio [17.214062755082065]
Disentangled Sequence Autoencoder (DSAE) は確率的グラフィカルモデルのクラスを表す。
バニラDSAEはモデルアーキテクチャの選択や動的潜伏変数の容量に敏感であることを示す。
本稿では,まずシーケンスレベルの事前分布を学習する2段階のトレーニングフレームワークTS-DSAEを提案する。
論文 参考訳(メタデータ) (2022-05-12T04:11:25Z) - Label Distributionally Robust Losses for Multi-class Classification:
Consistency, Robustness and Adaptivity [55.29408396918968]
多クラス分類のためのラベル分布ロバスト(LDR)損失という損失関数群について検討した。
我々の貢献は、多クラス分類のためのLDR損失のトップ$kの一貫性を確立することによって、一貫性と堅牢性の両方を含んでいる。
本稿では,各インスタンスのクラスラベルの雑音度に個別化温度パラメータを自動的に適応させる適応型LDR損失を提案する。
論文 参考訳(メタデータ) (2021-12-30T00:27:30Z) - Recurrent Equilibrium Networks: Flexible Dynamic Models with Guaranteed
Stability and Robustness [3.2872586139884623]
本稿では,機械学習,システム識別,制御における再帰平衡ネットワーク(REN)を提案する。
RENはRNの二次ベクトルによって直接パラメータ化され、安定性とロバスト性はパラメータ制約なしで確保される。
また,データ駆動型非線形オブザーバの設計と安定性保証による制御への応用について述べる。
論文 参考訳(メタデータ) (2021-04-13T05:09:41Z) - Understanding Overparameterization in Generative Adversarial Networks [56.57403335510056]
generative adversarial network (gans) は、非凹型ミニマックス最適化問題を訓練するために用いられる。
ある理論は、グローバル最適解に対する勾配降下 (gd) の重要性を示している。
ニューラルネットワークジェネレータと線形判別器を併用した多層GANにおいて、GDAは、基礎となる非凹面min-max問題の大域的なサドル点に収束することを示す。
論文 参考訳(メタデータ) (2021-04-12T16:23:37Z) - A Convex Parameterization of Robust Recurrent Neural Networks [3.2872586139884623]
リカレントニューラルネットワーク(Recurrent Neural Network, RNN)は、シーケンシャル・ツー・シーケンス・マップをモデル化するのによく用いられる非線形力学系のクラスである。
安定性とロバスト性を保証するRNNの凸集合を定式化する。
論文 参考訳(メタデータ) (2020-04-11T03:12:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。