論文の概要: Neural Conservation Laws: A Divergence-Free Perspective
- arxiv url: http://arxiv.org/abs/2210.01741v1
- Date: Tue, 4 Oct 2022 17:01:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 15:00:36.236166
- Title: Neural Conservation Laws: A Divergence-Free Perspective
- Title(参考訳): 神経保存法:多様性のない視点
- Authors: Jack Richter-Powell, Yaron Lipman, Ricky T. Q. Chen
- Abstract要約: 本稿では、微分形式の概念を用いて、分散のないニューラルネットワークを構築することを提案する。
これらのモデルが普遍的であることを証明し、任意の発散自由ベクトル場を表現するために使うことができる。
- 参考スコア(独自算出の注目度): 36.668126758052814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate the parameterization of deep neural networks that by design
satisfy the continuity equation, a fundamental conservation law. This is
enabled by the observation that solutions of the continuity equation can be
represented as a divergence-free vector field. We hence propose building
divergence-free neural networks through the concept of differential forms, and
with the aid of automatic differentiation, realize two practical constructions.
As a result, we can parameterize pairs of densities and vector fields that
always satisfy the continuity equation by construction, foregoing the need for
extra penalty methods or expensive numerical simulation. Furthermore, we prove
these models are universal and so can be used to represent any divergence-free
vector field. Finally, we experimentally validate our approaches on neural
network-based solutions to fluid equations, solving for the Hodge
decomposition, and learning dynamical optimal transport maps the Hodge
decomposition, and learning dynamical optimal transport maps.
- Abstract(参考訳): 基本保存法則である連続性方程式を設計により満足するディープニューラルネットワークのパラメータ化について検討する。
これは連続方程式の解を発散のないベクトル場として表現できるという観測によって実現される。
そこで我々は, 微分形式の概念を用いて, 分散のないニューラルネットワークを構築することを提案する。
その結果、連続性方程式を常に満たしている密度とベクトル場の対を構成によってパラメータ化することができ、余剰ペナルティ法や高価な数値シミュレーションが必要となる。
さらに、これらのモデルが普遍的であることを証明し、任意の発散のないベクトル場を表現するのに使うことができる。
最後に,ニューラルネットワークによる流体方程式の解法,ホッジ分解の解法,ホッジ分解の動的最適輸送マップの学習,動的最適輸送マップの学習について実験的に検証した。
関連論文リスト
- D4FT: A Deep Learning Approach to Kohn-Sham Density Functional Theory [79.50644650795012]
コーンシャム密度汎関数論(KS-DFT)を解くための深層学習手法を提案する。
このような手法はSCF法と同じ表現性を持つが,計算複雑性は低下する。
さらに,本手法により,より複雑なニューラルベース波動関数の探索が可能となった。
論文 参考訳(メタデータ) (2023-03-01T10:38:10Z) - Learning Functional Transduction [9.926231893220063]
そこで本研究では,トランスダクティブ回帰の原理を勾配降下によりメタ学習し,より効率的なインコンテキスト・ニューラル近似器を構築できることを示す。
我々は、データが少ない外部要因の影響を受け、複雑な物理システムをモデル化するためのメタ学習型トランスダクティブアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-02-01T09:14:28Z) - A Functional-Space Mean-Field Theory of Partially-Trained Three-Layer
Neural Networks [49.870593940818715]
本稿では,第1層がランダムで固定された3層NNモデルの無限幅限界について検討する。
我々の理論はモデルの異なるスケーリング選択に対応しており、結果としてMF制限の2つの条件が顕著な振舞いを示す。
論文 参考訳(メタデータ) (2022-10-28T17:26:27Z) - Uncertainty Quantification for Transport in Porous media using
Parameterized Physics Informed neural Networks [0.0]
本稿では,貯水池工学における不確実性定量化問題に取り組むために,インフォームドニューラルネットワーク(P-PINN)のパラメトリゼーションを提案する。
異種多孔質媒質中の不混和性二相流変位(Buckley-Leverett問題)によるアプローチを実証する。
PINNは不確実性空間のパラメータ化を適切に行うことで,アンサンブル実現とモーメントを密接に一致させる解を生成できることを示す。
論文 参考訳(メタデータ) (2022-05-19T06:23:23Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Feature Engineering with Regularity Structures [4.082216579462797]
機械学習タスクの特徴として,正則構造理論からのモデルの利用について検討する。
本研究では、時空信号に付随するモデル特徴ベクトルの柔軟な定義と、これらの特徴を線形回帰と組み合わせる方法を示す2つのアルゴリズムを提供する。
我々はこれらのアルゴリズムを、与えられた強制と境界データを用いてPDEの解を学ぶために設計されたいくつかの数値実験に適用する。
論文 参考訳(メタデータ) (2021-08-12T17:53:47Z) - Partial Differential Equations is All You Need for Generating Neural
Architectures -- A Theory for Physical Artificial Intelligence Systems [29.667065357274385]
統計物理学では反応拡散方程式、量子力学ではschr"odinger方程式、同軸光学ではhelmholtz方程式を一般化する。
数値解を求めるために,有限差分法を用いてNPDEを判別する。
多層パーセプトロン、畳み込みニューラルネットワーク、繰り返しニューラルネットワークなど、ディープニューラルネットワークアーキテクチャの基本構成要素が生成されます。
論文 参考訳(メタデータ) (2021-03-10T00:05:46Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Phase space learning with neural networks [0.0]
本研究では、部分微分方程式(PDE)を解く投影型手法の非線形一般化としてのオートエンコーダニューラルネットワークを提案する。
提案したディープラーニングアーキテクチャは、中間再構成なしに非常に少ない潜在空間に完全に統合することでPDEのダイナミクスを生成でき、その後、潜在解を元の空間に復号することができる。
単一経路のサンプルデータから動的システムの位相空間のグローバルな特性を学習するために、適切に正規化されたニューラルネットワークの信頼性と、目に見えない分岐を予測する能力を示す。
論文 参考訳(メタデータ) (2020-06-22T20:28:07Z) - Neural Operator: Graph Kernel Network for Partial Differential Equations [57.90284928158383]
この作業はニューラルネットワークを一般化し、無限次元空間(演算子)間の写像を学習できるようにすることである。
非線形活性化関数と積分作用素のクラスを構成することにより、無限次元写像の近似を定式化する。
実験により,提案したグラフカーネルネットワークには所望の特性があり,最先端技術と比較した場合の競合性能を示すことが確認された。
論文 参考訳(メタデータ) (2020-03-07T01:56:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。