論文の概要: Leveraging KANs For Enhanced Deep Koopman Operator Discovery
- arxiv url: http://arxiv.org/abs/2406.02875v1
- Date: Wed, 5 Jun 2024 02:50:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 22:16:58.843899
- Title: Leveraging KANs For Enhanced Deep Koopman Operator Discovery
- Title(参考訳): ディープ・クープマン・オペレーター発見のためのカンの活用
- Authors: George Nehma, Madhur Tiwari,
- Abstract要約: 多層パーセプトロン(MLP)は、非線形力学を線形化するディープ・クープマン作用素の発見に広く利用されている。
Kolmogorov-Arnold Networks (KAN) がより効率的かつ正確な代替手段として出現し、各ネットワークタイプの性能の比較を提案する。
学習速度は31倍、パラメータ効率は15倍、予測精度はDeep Neural Networks(DNN)の1.25倍である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-layer perceptrons (MLP's) have been extensively utilized in discovering Deep Koopman operators for linearizing nonlinear dynamics. With the emergence of Kolmogorov-Arnold Networks (KANs) as a more efficient and accurate alternative to the MLP Neural Network, we propose a comparison of the performance of each network type in the context of learning Koopman operators with control.In this work, we propose a KANs-based deep Koopman framework with applications to an orbital Two-Body Problem (2BP) and the pendulum for data-driven discovery of linear system dynamics. KANs were found to be superior in nearly all aspects of training; learning 31 times faster, being 15 times more parameter efficiency, and predicting 1.25 times more accurately as compared to the MLP Deep Neural Networks (DNNs) in the case of the 2BP. Thus, KANs shows potential for being an efficient tool in the development of Deep Koopman Theory.
- Abstract(参考訳): 多層パーセプトロン(MLP)は、非線形力学を線形化するディープ・クープマン作用素の発見に広く利用されている。
本稿では,MLPニューラルネットワークのより効率的かつ正確な代替としてKAN(Kolmogorov-Arnold Networks)が出現し,制御付きクープマン演算子(Koopman operator)の学習における各ネットワークタイプの性能の比較を行った。
カンはトレーニングのほぼ全ての面で優れており、学習速度は31倍、パラメータ効率は15倍、予測精度は2BPの場合のMLP Deep Neural Networks(DNN)の1.25倍である。
このように、カンスはディープ・クープマン理論の発展において効率的なツールとなる可能性を示している。
関連論文リスト
- Koopman-Assisted Reinforcement Learning [8.812992091278668]
ベルマン方程式とその連続形式であるハミルトン・ヤコビ・ベルマン方程式(HJB)は、強化学習(RL)と制御理論においてユビキタスである。
本稿では,データ駆動型クープマン演算子と決定過程(MDP)の関連性について検討する。
これらの制約に対処する2つの新しいRLアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-03-04T18:19:48Z) - Graph Neural Networks for Physical-Layer Security in Multi-User
Flexible-Duplex Networks [8.494679909584834]
本研究では,和秘密問題,特に協調型・分散型盗聴器に直面する場合の複雑さについて検討する。
コントリビューションには、反復的なソリューション最適化と、グラフニューラルネットワーク(GNN)に基づく教師なし学習戦略が含まれています。
我々は,盗聴者のチャネル知識の欠如に対処するため,GNNアプローチを拡張した。
論文 参考訳(メタデータ) (2024-02-08T03:22:12Z) - Speed Limits for Deep Learning [67.69149326107103]
熱力学の最近の進歩は、初期重量分布から完全に訓練されたネットワークの最終分布への移動速度の制限を可能にする。
線形および線形化可能なニューラルネットワークに対して,これらの速度制限に対する解析式を提供する。
NTKスペクトルとラベルのスペクトル分解に関するいくつかの妥当なスケーリング仮定を考えると、学習はスケーリングの意味で最適である。
論文 参考訳(メタデータ) (2023-07-27T06:59:46Z) - Koopman Neural Forecaster for Time Series with Temporal Distribution
Shifts [26.95428146824254]
時系列予測のためのクープマン理論に基づく新しいディープシーケンスモデルを提案する。
クープマンニューラルフォアキャスター (KNF) は、線形クープマン空間と選択された測定関数の係数を学習する。
我々は、KNFが複数の時系列データセットにおいて、代替よりも優れた性能を達成できることを実証した。
論文 参考訳(メタデータ) (2022-10-07T16:33:50Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Optimization-Based Separations for Neural Networks [57.875347246373956]
本研究では,2層のシグモダルアクティベーションを持つディープ2ニューラルネットワークを用いて,ボールインジケータ関数を効率よく学習できることを示す。
これは最適化に基づく最初の分離結果であり、より強力なアーキテクチャの近似の利点は、実際に確実に現れる。
論文 参考訳(メタデータ) (2021-12-04T18:07:47Z) - Training Algorithm Matters for the Performance of Neural Network
Potential [4.774810604472842]
適応モーメント推定アルゴリズム(Adam)と拡張カルマンフィルタアルゴリズム(EKF)の2つの人気トレーニングアルゴリズムの性能を比較した。
その結果,EKFで訓練したNNPは,Adamと比較して伝達性が高く,学習率に敏感ではないことがわかった。
論文 参考訳(メタデータ) (2021-09-08T16:48:33Z) - Learning Structures for Deep Neural Networks [99.8331363309895]
我々は,情報理論に根ざし,計算神経科学に発達した効率的な符号化原理を採用することを提案する。
スパース符号化は出力信号のエントロピーを効果的に最大化できることを示す。
公開画像分類データセットを用いた実験により,提案アルゴリズムでスクラッチから学習した構造を用いて,最も優れた専門家設計構造に匹敵する分類精度が得られることを示した。
論文 参考訳(メタデータ) (2021-05-27T12:27:24Z) - Optimizing Neural Networks via Koopman Operator Theory [6.09170287691728]
クープマン作用素理論は近年、ニューラルネットワーク理論と密接に関連していることが示されている。
この作業では、この接続を利用するための第一歩を踏み出します。
クープマン作用素理論法は、非自明な訓練時間の範囲で、供給重みの重みと偏りの予測を可能にする。
論文 参考訳(メタデータ) (2020-06-03T16:23:07Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - Self-Organized Operational Neural Networks with Generative Neurons [87.32169414230822]
ONNは、任意の非線型作用素をカプセル化できる一般化されたニューロンモデルを持つ異種ネットワークである。
我々は,各接続の結節演算子を適応(最適化)できる生成ニューロンを有する自己組織型ONN(Self-ONNs)を提案する。
論文 参考訳(メタデータ) (2020-04-24T14:37:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。