論文の概要: PDE-CNNs: Axiomatic Derivations and Applications
- arxiv url: http://arxiv.org/abs/2403.15182v3
- Date: Wed, 20 Nov 2024 12:22:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-21 16:10:58.633089
- Title: PDE-CNNs: Axiomatic Derivations and Applications
- Title(参考訳): PDE-CNN: 軸論的導出と応用
- Authors: Gijs Bellaard, Sei Sakata, Bart M. N. Smets, Remco Duits,
- Abstract要約: Group Convolutional Neural Networks (PDE-G-CNNs) は、G-CNNの従来のコンポーネントの代用として、PDEを解く。
本稿では, ユークリッド同変 PDE-G-CNN に焦点をあてる。
我々は、PDE-CNNがより少ないパラメータを提供し、精度を向上し、CNNと比較してデータ効率が良くなる小さなネットワークを確認した。
- 参考スコア(独自算出の注目度): 0.1874930567916036
- License:
- Abstract: PDE-based Group Convolutional Neural Networks (PDE-G-CNNs) use solvers of evolution PDEs as substitutes for the conventional components in G-CNNs. PDE-G-CNNs can offer several benefits simultaneously: fewer parameters, inherent equivariance, better accuracy, and data efficiency. In this article we focus on Euclidean equivariant PDE-G-CNNs where the feature maps are two-dimensional throughout. We call this variant of the framework a PDE-CNN. From a machine learning perspective, we list several practically desirable axioms and derive from these which PDEs should be used in a PDE-CNN, this being our main contribution. Our approach to geometric learning via PDEs is inspired by the axioms of scale-space theory, which we generalize by introducing semifield-valued signals. Our theory reveals new PDEs that can be used in PDE-CNNs and we experimentally examine what impact these have on the accuracy of PDE-CNNs. We also confirm for small networks that PDE-CNNs offer fewer parameters, increased accuracy, and better data efficiency when compared to CNNs.
- Abstract(参考訳): PDEをベースとしたグループ畳み込みニューラルネットワーク (Group Convolutional Neural Networks, PDE-G-CNNs) は、G-CNNの従来のコンポーネントの代用として進化PDEの解法を用いる。
PDE-G-CNNは、パラメータの少ない、固有の等価性、より良い精度、データ効率といった、いくつかの利点を同時に提供することができる。
本稿では, ユークリッド同変 PDE-G-CNN に焦点をあてる。
私たちはこのフレームワークをPDE-CNNと呼んでいる。
機械学習の観点からは、いくつかの実用的な公理をリストアップし、PDEがPDE-CNNで使用されるべきことに由来する。
PDEによる幾何学的学習への我々のアプローチは、半場評価信号を導入して一般化したスケール空間理論の公理に着想を得たものである。
本理論はPDE-CNNで利用できる新しいPDEを明らかにし,PDE-CNNの精度にどのような影響があるのかを実験的に検討する。
また、PDE-CNNがより少ないパラメータを提供し、精度を向上し、CNNと比較してデータ効率が良くなる小さなネットワークについても確認する。
関連論文リスト
- Unisolver: PDE-Conditional Transformers Are Universal PDE Solvers [55.0876373185983]
広範にPDEを解くことができるUniversal PDEソルバ(Unisolver)を提案する。
私たちの重要な発見は、PDEソリューションが基本的に一連のPDEコンポーネントの制御下にあることです。
Unisolverは3つの挑戦的な大規模ベンチマークにおいて、一貫した最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-05-27T15:34:35Z) - RoPINN: Region Optimized Physics-Informed Neural Networks [66.38369833561039]
物理インフォームドニューラルネットワーク(PINN)は偏微分方程式(PDE)の解法として広く応用されている。
本稿では,地域最適化としての新たな訓練パラダイムを提案し,理論的に検討する。
実践的なトレーニングアルゴリズムであるRerea Optimized PINN(RoPINN)は、この新しいパラダイムからシームレスに派生している。
論文 参考訳(メタデータ) (2024-05-23T09:45:57Z) - Solving PDEs on Spheres with Physics-Informed Convolutional Neural Networks [17.69666422395703]
物理インフォームドニューラルネットワーク(PINN)は偏微分方程式(PDE)の解法において効率的であることが示されている。
本稿では,物理インフォームド畳み込みニューラルネットワーク(PICNN)の厳密な解析を行い,球面上のPDEを解く。
論文 参考訳(メタデータ) (2023-08-18T14:58:23Z) - Analysis of (sub-)Riemannian PDE-G-CNNs [1.9249287163937971]
グループ同変畳み込みニューラルネットワーク(G-CNN)は幾何学的深層学習に成功している。
これまでに提案した近似形態素カーネルが必ずしも正確なカーネルを正確に近似するとは限らないことを示す。
近似核のより優れた誤差推定を持つ新しい定理を提供し、それらがすべて正確なものと同じ反射対称性を持っていることを証明する。
論文 参考訳(メタデータ) (2022-10-03T13:47:47Z) - Physics-Aware Neural Networks for Boundary Layer Linear Problems [0.0]
物理インフォームドニューラルネットワーク(PINN)は、一般偏微分方程式(PDE)の解をニューラルネットワークの損失/コストの観点から何らかの形で加算することによって近似する。
本稿では,1つ以上の境界層が存在する線形PDEに対するPINNについて検討する。
論文 参考訳(メタデータ) (2022-07-15T21:15:06Z) - Fourier Neural Operator with Learned Deformations for PDEs on General Geometries [75.91055304134258]
我々は任意の測地上でPDEを解決するための新しいフレームワーク、viz.、geo-FNOを提案する。
Geo-FNO は入力(物理)領域を不規則で、一様格子を持つ潜在空間に変形させることを学ぶ。
我々は, 弾性, 塑性, オイラー方程式, ナビエ・ストークス方程式などの多種多様なPDEと, 前方モデリングと逆設計の問題を考察する。
論文 参考訳(メタデータ) (2022-07-11T21:55:47Z) - Anisotropic, Sparse and Interpretable Physics-Informed Neural Networks
for PDEs [0.0]
我々は,従来のSPINN(Sparse, Physics-informed, Interpretable Neural Networks)と呼ばれる異方性拡張であるASPINNを提案し,PDEを解く。
ASPINNはラジアル基底関数ネットワークを一般化する。
また、ASPINNのトレーニングを教師付き学習アルゴリズムに近い形式に合理化します。
論文 参考訳(メタデータ) (2022-07-01T12:24:43Z) - Revisiting PINNs: Generative Adversarial Physics-informed Neural
Networks and Point-weighting Method [70.19159220248805]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)を数値的に解くためのディープラーニングフレームワークを提供する
本稿では,GA機構とPINNの構造を統合したGA-PINNを提案する。
本稿では,Adaboost法の重み付け戦略からヒントを得て,PINNのトレーニング効率を向上させるためのPW法を提案する。
論文 参考訳(メタデータ) (2022-05-18T06:50:44Z) - Lie Point Symmetry Data Augmentation for Neural PDE Solvers [69.72427135610106]
本稿では,ニューラルPDEソルバサンプルの複雑性を改善することにより,この問題を部分的に緩和する手法を提案する。
PDEの文脈では、データ変換の完全なリストを定量的に導き出せることが分かりました。
神経性PDEソルバサンプルの複雑さを桁違いに改善するために、どのように容易に展開できるかを示す。
論文 参考訳(メタデータ) (2022-02-15T18:43:17Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z) - PDE-based Group Equivariant Convolutional Neural Networks [1.949912057689623]
群同変畳み込みニューラルネットワーク(G-CNN)を一般化したPDEに基づくフレームワークを提案する。
このフレームワークでは、ネットワーク層は、幾何学的に有意なPDE係数が層のトレーニング可能な重みとなるPDE解決器の集合と見なされる。
本稿では,深層学習に基づくイメージングアプリケーションの性能向上に向けたPDE-G-CNNの強みを示す実験を行う。
論文 参考訳(メタデータ) (2020-01-24T15:00:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。