論文の概要: dynoNet: a neural network architecture for learning dynamical systems
- arxiv url: http://arxiv.org/abs/2006.02250v2
- Date: Tue, 20 Apr 2021 07:58:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 17:47:25.410417
- Title: dynoNet: a neural network architecture for learning dynamical systems
- Title(参考訳): dynonet: 動的システム学習のためのニューラルネットワークアーキテクチャ
- Authors: Marco Forgione, Dario Piga
- Abstract要約: 本稿では, 線形動的演算子を基本構造として利用したネットワークアーキテクチャ, dynoNetを提案する。
そのパラメータと入力シーケンスの両方に関して線形力学演算子のバックプロパゲーション挙動が定義される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces a network architecture, called dynoNet, utilizing
linear dynamical operators as elementary building blocks. Owing to the
dynamical nature of these blocks, dynoNet networks are tailored for sequence
modeling and system identification purposes. The back-propagation behavior of
the linear dynamical operator with respect to both its parameters and its input
sequence is defined. This enables end-to-end training of structured networks
containing linear dynamical operators and other differentiable units,
exploiting existing deep learning software. Examples show the effectiveness of
the proposed approach on well-known system identification benchmarks.
Examples show the effectiveness of the proposed approach against well-known
system identification benchmarks.
- Abstract(参考訳): 本稿では, 線形動的演算子を基本構造として利用したネットワークアーキテクチャ, dynoNetを提案する。
これらのブロックの動的性質のため、dynonetネットワークはシーケンスモデリングとシステム同定のために調整されている。
そのパラメータと入力シーケンスの両方に関して線形力学演算子のバックプロパゲーション挙動が定義される。
これにより、線形動的演算子やその他の微分可能なユニットを含む構造化ネットワークのエンドツーエンドトレーニングが可能になり、既存のディープラーニングソフトウェアを活用することができる。
例として,システム同定ベンチマークにおける提案手法の有効性を示す。
例えば、よく知られたシステム識別ベンチマークに対する提案手法の有効性を示す。
関連論文リスト
- OS-net: Orbitally Stable Neural Networks [0.0]
我々は,周期的動的データに特化して設計されたニューラルネットワークアーキテクチャの新たなファミリであるOS-netを紹介する。
ネットワーク重みの条件を導出し、結果のダイナミクスの安定性を確保する。
我々は,OS-netを応用して,R"ossler"と"Sprott"のシステムの基盤となるダイナミクスを発見することによって,我々のアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-09-26T10:40:04Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Learning Linear Embeddings for Non-Linear Network Dynamics with Koopman
Message Passing [0.0]
我々は、クープマン作用素理論とメッセージパッシングネットワークに基づく新しいアプローチを提案する。
動的システムに対する線形表現は,任意の段階において世界規模で有効である。
本手法で得られた線形化は,現在の最先端技術よりも数桁優れたネットワーク力学問題に対して予測を行う。
論文 参考訳(メタデータ) (2023-05-15T23:00:25Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - Simple initialization and parametrization of sinusoidal networks via
their kernel bandwidth [92.25666446274188]
従来の活性化機能を持つネットワークの代替として、活性化を伴う正弦波ニューラルネットワークが提案されている。
まず,このような正弦波ニューラルネットワークの簡易版を提案する。
次に、ニューラルタンジェントカーネルの観点からこれらのネットワークの挙動を分析し、そのカーネルが調整可能な帯域幅を持つ低域フィルタを近似することを実証する。
論文 参考訳(メタデータ) (2022-11-26T07:41:48Z) - Vanilla Feedforward Neural Networks as a Discretization of Dynamical Systems [9.382423715831687]
本稿では,従来のネットワーク構造に戻り,バニラフィードフォワードネットワークが動的システムの数値的な離散化であることを示す。
我々の結果は、フィードフォワードニューラルネットワークの近似特性を理解するための新しい視点を提供することができる。
論文 参考訳(メタデータ) (2022-09-22T10:32:08Z) - Constructing Neural Network-Based Models for Simulating Dynamical
Systems [59.0861954179401]
データ駆動モデリングは、真のシステムの観測からシステムの力学の近似を学ぼうとする代替パラダイムである。
本稿では,ニューラルネットワークを用いた動的システムのモデル構築方法について検討する。
基礎的な概要に加えて、関連する文献を概説し、このモデリングパラダイムが克服すべき数値シミュレーションから最も重要な課題を概説する。
論文 参考訳(メタデータ) (2021-11-02T10:51:42Z) - Supervised DKRC with Images for Offline System Identification [77.34726150561087]
現代の力学系はますます非線形で複雑なものになりつつある。
予測と制御のためのコンパクトで包括的な表現でこれらのシステムをモデル化するフレームワークが必要である。
本手法は,教師付き学習手法を用いてこれらの基礎関数を学習する。
論文 参考訳(メタデータ) (2021-09-06T04:39:06Z) - Deep learning with transfer functions: new applications in system
identification [0.0]
本稿では,自動微分計算のためのよく定義された効率的なバックプロパゲーション挙動を付与した線形動的作用素を提案する。
このオペレータは、線形転送関数と他の微分可能なユニットを含む構造化ネットワークのエンドツーエンドトレーニングを可能にする。
論文 参考訳(メタデータ) (2021-04-20T08:58:55Z) - Neural networks adapting to datasets: learning network size and topology [77.34726150561087]
ニューラルネットワークは、勾配に基づくトレーニングの過程で、そのサイズとトポロジの両方を学習できるフレキシブルなセットアップを導入します。
結果として得られるネットワークは、特定の学習タスクとデータセットに合わせたグラフの構造を持つ。
論文 参考訳(メタデータ) (2020-06-22T12:46:44Z) - Input-to-State Representation in linear reservoirs dynamics [15.491286626948881]
貯留層コンピューティングは、リカレントニューラルネットワークを設計するための一般的なアプローチである。
これらのネットワークの動作原理は、完全には理解されていない。
このようなネットワークの力学の新たな解析法を提案する。
論文 参考訳(メタデータ) (2020-03-24T00:14:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。