論文の概要: Machine Learning of Nonlinear Dynamical Systems with Control Parameters Using Feedforward Neural Networks
- arxiv url: http://arxiv.org/abs/2409.07468v1
- Date: Wed, 28 Aug 2024 05:31:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-15 05:01:16.834540
- Title: Machine Learning of Nonlinear Dynamical Systems with Control Parameters Using Feedforward Neural Networks
- Title(参考訳): フィードフォワードニューラルネットワークを用いた制御パラメータをもつ非線形力学系の機械学習
- Authors: Hidetsugu Sakaguchi,
- Abstract要約: フィードフォワードニューラルネットワークは,大域的に結合したスチュアート・ランダウ方程式において,ロジスティクスマップの分岐図と同期遷移を再現可能であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Several authors have reported that the echo state network reproduces bifurcation diagrams of some nonlinear differential equations using the data for a few control parameters. We demonstrate that a simpler feedforward neural network can also reproduce the bifurcation diagram of the logistics map and synchronization transition in globally coupled Stuart-Landau equations.
- Abstract(参考訳): いくつかの著者は、エコー状態ネットワークがいくつかの制御パラメータのデータを用いて、いくつかの非線形微分方程式の分岐図を再現していると報告している。
より単純なフィードフォワードニューラルネットワークは,大域的に結合されたスチュアート・ランダウ方程式において,ロジスティクスマップの分岐図と同期遷移を再現できることを示した。
関連論文リスト
- Discovering Governing equations from Graph-Structured Data by Sparse Identification of Nonlinear Dynamical Systems [0.27624021966289597]
グラフ構造化データ(SINDyG)から動的システムのスパース同定法を開発した。
SINDyGは、ネットワーク構造をスパースレグレッションに組み込んで、基礎となるネットワーク力学を説明するモデルパラメータを識別する。
論文 参考訳(メタデータ) (2024-09-02T17:51:37Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - InVAErt networks: a data-driven framework for model synthesis and
identifiability analysis [0.0]
inVAErtは物理システムのデータ駆動分析と合成のためのフレームワークである。
これは、前方および逆写像を表す決定論的デコーダ、系の出力の確率分布を捉える正規化フロー、入力と出力の間の単射性の欠如についてコンパクトな潜在表現を学ぶ変分エンコーダを使用する。
論文 参考訳(メタデータ) (2023-07-24T07:58:18Z) - Simple initialization and parametrization of sinusoidal networks via
their kernel bandwidth [92.25666446274188]
従来の活性化機能を持つネットワークの代替として、活性化を伴う正弦波ニューラルネットワークが提案されている。
まず,このような正弦波ニューラルネットワークの簡易版を提案する。
次に、ニューラルタンジェントカーネルの観点からこれらのネットワークの挙動を分析し、そのカーネルが調整可能な帯域幅を持つ低域フィルタを近似することを実証する。
論文 参考訳(メタデータ) (2022-11-26T07:41:48Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Learning Time Delay Systems with Neural Ordinary Differential Equations [0.0]
トレーニング可能な遅延を持つニューラルネットワークを用いて遅延微分方程式を近似する。
カオス的な振る舞いからのデータを用いて、マッキーグラス方程式の力学を学習する例を示す。
論文 参考訳(メタデータ) (2022-06-28T20:59:44Z) - Neural Galerkin Schemes with Active Learning for High-Dimensional
Evolution Equations [44.89798007370551]
本研究では,高次元偏微分方程式を数値的に解くために,能動的学習を用いた学習データを生成するディープラーニングに基づくニューラル・ガレルキンスキームを提案する。
ニューラル・ガレルキンスキームはディラック・フランケル変分法に基づいて、残余を時間とともに最小化することで、ネットワークを訓練する。
提案したニューラル・ガレルキン・スキームの学習データ収集は,高次元におけるネットワークの表現力を数値的に実現するための鍵となる。
論文 参考訳(メタデータ) (2022-03-02T19:09:52Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Recurrent Neural Network Training with Convex Loss and Regularization
Functions by Extended Kalman Filtering [0.20305676256390928]
本研究では,非線形システム同定ベンチマークにおいて,学習手法が勾配勾配よりも優れていることを示す。
また、データ駆動非線形モデル予測制御におけるアルゴリズムの利用と、オフセットフリートラッキングにおける外乱モデルとの関係についても検討する。
論文 参考訳(メタデータ) (2021-11-04T07:49:15Z) - Training End-to-End Analog Neural Networks with Equilibrium Propagation [64.0476282000118]
本稿では,勾配降下による終端から終端までのアナログニューラルネットワークの学習法を提案する。
数学的には、アナログニューラルネットワークのクラス(非線形抵抗性ネットワークと呼ばれる)がエネルギーベースモデルであることが示される。
我々の研究は、オンチップ学習をサポートする、超高速でコンパクトで低消費電力のニューラルネットワークの新世代の開発を導くことができる。
論文 参考訳(メタデータ) (2020-06-02T23:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。