論文の概要: PDE-CNNs: Axiomatic Derivations and Applications
- arxiv url: http://arxiv.org/abs/2403.15182v2
- Date: Thu, 18 Apr 2024 08:40:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-19 20:20:09.194619
- Title: PDE-CNNs: Axiomatic Derivations and Applications
- Title(参考訳): PDE-CNN: 軸論的導出と応用
- Authors: Gijs Bellaard, Sei Sakata, Bart M. N. Smets, Remco Duits,
- Abstract要約: グループ畳み込みニューラルネットワーク(PDE-G-CNN)は、幾何学的に意味のある進化PDEの解法を、G-CNNの従来のコンポーネントの代用として利用する。
我々は、PDE-CNNがより少ないパラメータを提供し、性能が向上し、CNNと比較してデータ効率が良くなる小さなネットワークを実験的に確認した。
- 参考スコア(独自算出の注目度): 0.1874930567916036
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: PDE-based Group Convolutional Neural Networks (PDE-G-CNNs) utilize solvers of geometrically meaningful evolution PDEs as substitutes for the conventional components in G-CNNs. PDE-G-CNNs offer several key benefits all at once: fewer parameters, inherent equivariance, better performance, data efficiency, and geometric interpretability. In this article we focus on Euclidean equivariant PDE-G-CNNs where the feature maps are two dimensional throughout. We call this variant of the framework a PDE-CNN. From a machine learning perspective, we list several practically desirable axioms and derive from these which PDEs should be used in a PDE-CNN. Here our approach to geometric learning via PDEs is inspired by the axioms of classical linear and morphological scale-space theory, which we generalize by introducing semifield-valued signals. Furthermore, we experimentally confirm for small networks that PDE-CNNs offer fewer parameters, increased performance, and better data efficiency when compared to CNNs. We also investigate what effect the use of different semifields has on the performance of the models.
- Abstract(参考訳): PDEに基づくグループ畳み込みニューラルネットワーク (Group Convolutional Neural Networks, PDE-G-CNNs) は、幾何学的に意味のある進化PDEの解法を、G-CNNの従来のコンポーネントの代用として利用する。
PDE-G-CNNは、パラメータの削減、固有の等価性、より良い性能、データ効率、幾何学的解釈可能性など、いくつかの重要な利点を同時に提供する。
本稿では, ユークリッド同変 PDE-G-CNN に焦点をあてる。
私たちはこのフレームワークをPDE-CNNと呼んでいる。
機械学習の観点からは、実用的に望ましいいくつかの公理をリストアップし、PDEがPDE-CNNで使用されるべきであることに由来する。
ここでは、PDEによる幾何学的学習へのアプローチは、半場評価信号を導入して一般化した古典線形および形態的スケール空間理論の公理に着想を得たものである。
さらに,PDE-CNNはパラメータが少なく,性能が向上し,CNNと比較してデータ効率が良くなる小ネットワークを実験的に検証した。
また、異なるセミフィールドの使用がモデルの性能に与える影響についても検討する。
関連論文リスト
- Deep Equilibrium Based Neural Operators for Steady-State PDEs [100.88355782126098]
定常PDEに対する重み付けニューラルネットワークアーキテクチャの利点について検討する。
定常PDEの解を直接解くFNOアーキテクチャの深い平衡変種であるFNO-DEQを提案する。
論文 参考訳(メタデータ) (2023-11-30T22:34:57Z) - Lie Point Symmetry and Physics Informed Networks [59.56218517113066]
本稿では、損失関数を用いて、PINNモデルが基礎となるPDEを強制しようとするのと同じように、リー点対称性をネットワークに通知するロス関数を提案する。
我々の対称性の損失は、リー群の無限小生成元がPDE解を保存することを保証する。
実験により,PDEのリー点対称性による誘導バイアスはPINNの試料効率を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2023-11-07T19:07:16Z) - Solving PDEs on Spheres with Physics-Informed Convolutional Neural
Networks [18.98579461397768]
物理インフォームドニューラルネットワーク(PINN)は偏微分方程式(PDE)の解法において効率的であることが示されている。
本稿では,物理インフォームド畳み込みニューラルネットワーク(PICNN)の厳密な解析を行い,球面上のPDEを解く。
論文 参考訳(メタデータ) (2023-08-18T14:58:23Z) - Analysis of (sub-)Riemannian PDE-G-CNNs [1.9249287163937971]
グループ同変畳み込みニューラルネットワーク(G-CNN)は幾何学的深層学習に成功している。
これまでに提案した近似形態素カーネルが必ずしも正確なカーネルを正確に近似するとは限らないことを示す。
近似核のより優れた誤差推定を持つ新しい定理を提供し、それらがすべて正確なものと同じ反射対称性を持っていることを証明する。
論文 参考訳(メタデータ) (2022-10-03T13:47:47Z) - Physics-Aware Neural Networks for Boundary Layer Linear Problems [0.0]
物理インフォームドニューラルネットワーク(PINN)は、一般偏微分方程式(PDE)の解をニューラルネットワークの損失/コストの観点から何らかの形で加算することによって近似する。
本稿では,1つ以上の境界層が存在する線形PDEに対するPINNについて検討する。
論文 参考訳(メタデータ) (2022-07-15T21:15:06Z) - Fourier Neural Operator with Learned Deformations for PDEs on General Geometries [75.91055304134258]
我々は任意の測地上でPDEを解決するための新しいフレームワーク、viz.、geo-FNOを提案する。
Geo-FNO は入力(物理)領域を不規則で、一様格子を持つ潜在空間に変形させることを学ぶ。
我々は, 弾性, 塑性, オイラー方程式, ナビエ・ストークス方程式などの多種多様なPDEと, 前方モデリングと逆設計の問題を考察する。
論文 参考訳(メタデータ) (2022-07-11T21:55:47Z) - Anisotropic, Sparse and Interpretable Physics-Informed Neural Networks
for PDEs [0.0]
我々は,従来のSPINN(Sparse, Physics-informed, Interpretable Neural Networks)と呼ばれる異方性拡張であるASPINNを提案し,PDEを解く。
ASPINNはラジアル基底関数ネットワークを一般化する。
また、ASPINNのトレーニングを教師付き学習アルゴリズムに近い形式に合理化します。
論文 参考訳(メタデータ) (2022-07-01T12:24:43Z) - Revisiting PINNs: Generative Adversarial Physics-informed Neural
Networks and Point-weighting Method [70.19159220248805]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)を数値的に解くためのディープラーニングフレームワークを提供する
本稿では,GA機構とPINNの構造を統合したGA-PINNを提案する。
本稿では,Adaboost法の重み付け戦略からヒントを得て,PINNのトレーニング効率を向上させるためのPW法を提案する。
論文 参考訳(メタデータ) (2022-05-18T06:50:44Z) - Lie Point Symmetry Data Augmentation for Neural PDE Solvers [69.72427135610106]
本稿では,ニューラルPDEソルバサンプルの複雑性を改善することにより,この問題を部分的に緩和する手法を提案する。
PDEの文脈では、データ変換の完全なリストを定量的に導き出せることが分かりました。
神経性PDEソルバサンプルの複雑さを桁違いに改善するために、どのように容易に展開できるかを示す。
論文 参考訳(メタデータ) (2022-02-15T18:43:17Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z) - PDE-based Group Equivariant Convolutional Neural Networks [1.949912057689623]
群同変畳み込みニューラルネットワーク(G-CNN)を一般化したPDEに基づくフレームワークを提案する。
このフレームワークでは、ネットワーク層は、幾何学的に有意なPDE係数が層のトレーニング可能な重みとなるPDE解決器の集合と見なされる。
本稿では,深層学習に基づくイメージングアプリケーションの性能向上に向けたPDE-G-CNNの強みを示す実験を行う。
論文 参考訳(メタデータ) (2020-01-24T15:00:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。