論文の概要: Learning Monotone Dynamics by Neural Networks
- arxiv url: http://arxiv.org/abs/2006.06417v2
- Date: Wed, 22 Jun 2022 03:22:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 14:53:25.917757
- Title: Learning Monotone Dynamics by Neural Networks
- Title(参考訳): ニューラルネットワークによるモノトンダイナミクスの学習
- Authors: Yu Wang, Qitong Gao, and Miroslav Pajic
- Abstract要約: この研究は、モノトニック性(システム状態の部分的な順序は時間とともに保存される)と安定性(システム状態は時間とともに収束する)という2つの重要な物理的制約を課すことに焦点を当てている。
単調性と安定性の制約の両方に対して,システム力学とそれに対応するリャプノフ関数を同時に学習することを提案する。
- 参考スコア(独自算出の注目度): 11.559369590931116
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feed-forward neural networks (FNNs) work as standard building blocks in
applying artificial intelligence (AI) to the physical world. They allow
learning the dynamics of unknown physical systems (e.g., biological and
chemical) {to predict their future behavior}. However, they are likely to
violate the physical constraints of those systems without proper treatment.
This work focuses on imposing two important physical constraints: monotonicity
(i.e., a partial order of system states is preserved over time) and stability
(i.e., the system states converge over time) when using FNNs to learn physical
dynamics. For monotonicity constraints, we propose to use nonnegative neural
networks and batch normalization. For both monotonicity and stability
constraints, we propose to learn the system dynamics and corresponding Lyapunov
function simultaneously. As demonstrated by case studies, our methods can
preserve the stability and monotonicity of FNNs and significantly reduce their
prediction errors.
- Abstract(参考訳): フィードフォワードニューラルネットワーク(FNN)は、人工知能(AI)を物理世界に適用するための標準ビルディングブロックとして機能する。
これらは未知の物理系の力学(例えば、生物と化学)を学習し、将来の振る舞いを予測する。
しかし、適切な処理を行わずにこれらのシステムの物理的制約に違反する可能性が高い。
この研究は、2つの重要な物理的制約を課すことに焦点を当てている: モノトニック性(すなわち、システム状態の部分次数は時間とともに保存される)と安定性(つまり、システムの状態は時間とともに収束する)である。
単調性制約に対して,非負のニューラルネットワークとバッチ正規化を提案する。
単調性と安定性の制約の両方に対して,システム力学と対応するリャプノフ関数を同時に学習することを提案する。
ケーススタディで示されたように,本手法はFNNの安定性と単調性を保ち,予測誤差を大幅に低減することができる。
関連論文リスト
- Learning Neural Constitutive Laws From Motion Observations for
Generalizable PDE Dynamics [97.38308257547186]
多くのNNアプローチは、支配的PDEと物質モデルの両方を暗黙的にモデル化するエンドツーエンドモデルを学ぶ。
PDEの管理はよく知られており、学習よりも明示的に実施されるべきである、と私たちは主張する。
そこで我々は,ネットワークアーキテクチャを利用したニューラル構成則(Neural Constitutive Laws,NCLaw)と呼ばれる新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2023-04-27T17:42:24Z) - Learning Physical Dynamics with Subequivariant Graph Neural Networks [99.41677381754678]
グラフニューラルネットワーク(GNN)は、物理力学を学習するための一般的なツールとなっている。
物理法則は、モデル一般化に必須な帰納バイアスである対称性に従属する。
本モデルは,RigidFall上でのPhysylonと2倍低ロールアウトMSEの8つのシナリオにおいて,平均3%以上の接触予測精度の向上を実現している。
論文 参考訳(メタデータ) (2022-10-13T10:00:30Z) - Bayesian Physics-Informed Neural Networks for real-world nonlinear
dynamical systems [0.0]
ニューラルネットワーク、物理情報モデリング、ベイズ推論を組み合わせることで、データ、物理、不確実性を統合します。
本研究は,ニューラルネットワーク,ベイジアン推論,および両者の組み合わせの固有の長所と短所を明らかにする。
我々は、基礎となる概念や傾向が、より複雑な疾患の状況に一般化されることを期待する。
論文 参考訳(メタデータ) (2022-05-12T19:04:31Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z) - Port-Hamiltonian Neural Networks for Learning Explicit Time-Dependent
Dynamical Systems [2.6084034060847894]
動的システムの時間的挙動を正確に学習するには、十分な学習バイアスを持つモデルが必要である。
近年のイノベーションは、ハミルトン形式とラグランジュ形式をニューラルネットワークに組み込んでいる。
提案したエンポート・ハミルトンニューラルネットワークは,非線形物理系の実利的な力学を効率的に学習できることを示す。
論文 参考訳(メタデータ) (2021-07-16T17:31:54Z) - SpikePropamine: Differentiable Plasticity in Spiking Neural Networks [0.0]
スパイキングニューラルネットワーク(SNN)におけるシナプス可塑性と神経調節シナプス可塑性のダイナミクスを学習するための枠組みを導入する。
異なる可塑性で強化されたSNNは、時間的学習課題の集合を解決するのに十分であることを示す。
これらのネットワークは、高次元のロボット学習タスクで移動を生成できることも示されている。
論文 参考訳(メタデータ) (2021-06-04T19:29:07Z) - Neural ODE Processes [64.10282200111983]
NDP(Neural ODE Process)は、Neural ODEの分布によって決定される新しいプロセスクラスである。
我々のモデルは,少数のデータポイントから低次元システムのダイナミクスを捉えることができることを示す。
論文 参考訳(メタデータ) (2021-03-23T09:32:06Z) - Neural Physicist: Learning Physical Dynamics from Image Sequences [0.6445605125467573]
深層ニューラルネットワークを用いて画像シーケンスから直接物理力学を学習するニューラルフィジスト(NeurPhy)という新しいアーキテクチャを提案する。
我々のモデルは、物理的に意味のある状態表現を抽出するだけでなく、見えない画像列の長期予測を可能にする状態遷移ダイナミクスを学習する。
論文 参考訳(メタデータ) (2020-06-09T04:36:51Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。