論文の概要: Neural Conservation Laws: A Divergence-Free Perspective
- arxiv url: http://arxiv.org/abs/2210.01741v1
- Date: Tue, 4 Oct 2022 17:01:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 15:00:36.236166
- Title: Neural Conservation Laws: A Divergence-Free Perspective
- Title(参考訳): 神経保存法:多様性のない視点
- Authors: Jack Richter-Powell, Yaron Lipman, Ricky T. Q. Chen
- Abstract要約: 本稿では、微分形式の概念を用いて、分散のないニューラルネットワークを構築することを提案する。
これらのモデルが普遍的であることを証明し、任意の発散自由ベクトル場を表現するために使うことができる。
- 参考スコア(独自算出の注目度): 36.668126758052814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate the parameterization of deep neural networks that by design
satisfy the continuity equation, a fundamental conservation law. This is
enabled by the observation that solutions of the continuity equation can be
represented as a divergence-free vector field. We hence propose building
divergence-free neural networks through the concept of differential forms, and
with the aid of automatic differentiation, realize two practical constructions.
As a result, we can parameterize pairs of densities and vector fields that
always satisfy the continuity equation by construction, foregoing the need for
extra penalty methods or expensive numerical simulation. Furthermore, we prove
these models are universal and so can be used to represent any divergence-free
vector field. Finally, we experimentally validate our approaches on neural
network-based solutions to fluid equations, solving for the Hodge
decomposition, and learning dynamical optimal transport maps the Hodge
decomposition, and learning dynamical optimal transport maps.
- Abstract(参考訳): 基本保存法則である連続性方程式を設計により満足するディープニューラルネットワークのパラメータ化について検討する。
これは連続方程式の解を発散のないベクトル場として表現できるという観測によって実現される。
そこで我々は, 微分形式の概念を用いて, 分散のないニューラルネットワークを構築することを提案する。
その結果、連続性方程式を常に満たしている密度とベクトル場の対を構成によってパラメータ化することができ、余剰ペナルティ法や高価な数値シミュレーションが必要となる。
さらに、これらのモデルが普遍的であることを証明し、任意の発散のないベクトル場を表現するのに使うことができる。
最後に,ニューラルネットワークによる流体方程式の解法,ホッジ分解の解法,ホッジ分解の動的最適輸送マップの学習,動的最適輸送マップの学習について実験的に検証した。
関連論文リスト
- A Mathematical Analysis of Neural Operator Behaviors [0.0]
本稿では,ニューラルネットワークの動作を分析するための厳密な枠組みを提案する。
我々はそれらの安定性、収束性、クラスタリングダイナミクス、普遍性、一般化誤差に焦点を当てる。
我々は,ニューラル演算子に基づく手法の今後の設計のために,単一設定で明確かつ統一的なガイダンスを提供することを目指している。
論文 参考訳(メタデータ) (2024-10-28T19:38:53Z) - Finite Operator Learning: Bridging Neural Operators and Numerical Methods for Efficient Parametric Solution and Optimization of PDEs [0.0]
本稿では,ニューラルネットワーク,物理情報処理機械学習,およびPDEを解くための標準的な数値法を組み合わせた手法を提案する。
データのない方法で偏微分方程式をパラメトリックに解き、正確な感度を与えることができる。
本研究では, 不均一材料中の定常熱方程式に着目した。
論文 参考訳(メタデータ) (2024-07-04T21:23:12Z) - D4FT: A Deep Learning Approach to Kohn-Sham Density Functional Theory [79.50644650795012]
コーンシャム密度汎関数論(KS-DFT)を解くための深層学習手法を提案する。
このような手法はSCF法と同じ表現性を持つが,計算複雑性は低下する。
さらに,本手法により,より複雑なニューラルベース波動関数の探索が可能となった。
論文 参考訳(メタデータ) (2023-03-01T10:38:10Z) - Learning Functional Transduction [9.926231893220063]
そこで本研究では,トランスダクティブ回帰の原理を勾配降下によりメタ学習し,より効率的なインコンテキスト・ニューラル近似器を構築できることを示す。
我々は、データが少ない外部要因の影響を受け、複雑な物理システムをモデル化するためのメタ学習型トランスダクティブアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-02-01T09:14:28Z) - A Functional-Space Mean-Field Theory of Partially-Trained Three-Layer
Neural Networks [49.870593940818715]
本稿では,第1層がランダムで固定された3層NNモデルの無限幅限界について検討する。
我々の理論はモデルの異なるスケーリング選択に対応しており、結果としてMF制限の2つの条件が顕著な振舞いを示す。
論文 参考訳(メタデータ) (2022-10-28T17:26:27Z) - Uncertainty Quantification for Transport in Porous media using
Parameterized Physics Informed neural Networks [0.0]
本稿では,貯水池工学における不確実性定量化問題に取り組むために,インフォームドニューラルネットワーク(P-PINN)のパラメトリゼーションを提案する。
異種多孔質媒質中の不混和性二相流変位(Buckley-Leverett問題)によるアプローチを実証する。
PINNは不確実性空間のパラメータ化を適切に行うことで,アンサンブル実現とモーメントを密接に一致させる解を生成できることを示す。
論文 参考訳(メタデータ) (2022-05-19T06:23:23Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Phase space learning with neural networks [0.0]
本研究では、部分微分方程式(PDE)を解く投影型手法の非線形一般化としてのオートエンコーダニューラルネットワークを提案する。
提案したディープラーニングアーキテクチャは、中間再構成なしに非常に少ない潜在空間に完全に統合することでPDEのダイナミクスを生成でき、その後、潜在解を元の空間に復号することができる。
単一経路のサンプルデータから動的システムの位相空間のグローバルな特性を学習するために、適切に正規化されたニューラルネットワークの信頼性と、目に見えない分岐を予測する能力を示す。
論文 参考訳(メタデータ) (2020-06-22T20:28:07Z) - Neural Operator: Graph Kernel Network for Partial Differential Equations [57.90284928158383]
この作業はニューラルネットワークを一般化し、無限次元空間(演算子)間の写像を学習できるようにすることである。
非線形活性化関数と積分作用素のクラスを構成することにより、無限次元写像の近似を定式化する。
実験により,提案したグラフカーネルネットワークには所望の特性があり,最先端技術と比較した場合の競合性能を示すことが確認された。
論文 参考訳(メタデータ) (2020-03-07T01:56:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。