論文の概要: STAResNet: a Network in Spacetime Algebra to solve Maxwell's PDEs
- arxiv url: http://arxiv.org/abs/2408.13619v1
- Date: Sat, 24 Aug 2024 16:23:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-27 18:49:22.094739
- Title: STAResNet: a Network in Spacetime Algebra to solve Maxwell's PDEs
- Title(参考訳): STAResNet: MaxwellのPDEを解決する時空代数のネットワーク
- Authors: Alberto Pepe, Sven Buchholz, Joan Lasenby,
- Abstract要約: 我々は、時空代数(STA)におけるResNetアーキテクチャであるSTAResNetを導入し、マクスウェルの偏微分方程式(PDE)を解く。
Clifford Networks における正確な幾何埋め込みは、トレーニング可能なパラメータの6倍少ない標準 Clifford ResNet よりも最大2.6倍低い、基底真理と推定された場の平均二乗誤差(MSE)を与えることを示す。
- 参考スコア(独自算出の注目度): 4.000869978312742
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce STAResNet, a ResNet architecture in Spacetime Algebra (STA) to solve Maxwell's partial differential equations (PDEs). Recently, networks in Geometric Algebra (GA) have been demonstrated to be an asset for truly geometric machine learning. In \cite{brandstetter2022clifford}, GA networks have been employed for the first time to solve partial differential equations (PDEs), demonstrating an increased accuracy over real-valued networks. In this work we solve Maxwell's PDEs both in GA and STA employing the same ResNet architecture and dataset, to discuss the impact that the choice of the right algebra has on the accuracy of GA networks. Our study on STAResNet shows how the correct geometric embedding in Clifford Networks gives a mean square error (MSE), between ground truth and estimated fields, up to 2.6 times lower than than obtained with a standard Clifford ResNet with 6 times fewer trainable parameters. STAREsNet demonstrates consistently lower MSE and higher correlation regardless of scenario. The scenarios tested are: sampling period of the dataset; presence of obstacles with either seen or unseen configurations; the number of channels in the ResNet architecture; the number of rollout steps; whether the field is in 2D or 3D space. This demonstrates how choosing the right algebra in Clifford networks is a crucial factor for more compact, accurate, descriptive and better generalising pipelines.
- Abstract(参考訳): 時空代数(STA)におけるResNetアーキテクチャであるSTAResNetを導入し、マクスウェルの偏微分方程式(PDE)を解く。
近年,Geometric Algebra (GA) のネットワークは,真の幾何学的機械学習の基盤として実証されている。
\cite{brandstetter2022clifford} において、GAネットワークは偏微分方程式 (PDE) を解くために初めて使われ、実数値ネットワークよりも精度が向上した。
本研究では, GA と STA で同一の ResNet アーキテクチャとデータセットを用いて, Maxwell の PDE を解き, GA ネットワークの精度に適切な代数の選択が与える影響について議論する。
STAResNetの研究は、クリフォードネットワークにおける正確な幾何学的埋め込みが、地上の真理と推定された場の平均二乗誤差(MSE)を、訓練可能なパラメータの6倍少ない標準のクリフォード・レスネットよりも最大2.6倍低い値で与えることを示す。
STAREsNetは、シナリオに関わらず、MSEが一貫して低く、高い相関を示す。
テストされたシナリオは、データセットのサンプリング期間、目に見えるか見えない構成の障害の存在、ResNetアーキテクチャのチャネル数、ロールアウトステップの数、フィールドが2Dまたは3D空間にあるかどうかである。
これはクリフォードネットワークにおける正しい代数の選択が、よりコンパクトで正確で記述的でより良い一般化パイプラインにとって重要な要素であることを示す。
関連論文リスト
- GIT-Net: Generalized Integral Transform for Operator Learning [58.13313857603536]
本稿では、部分微分方程式(PDE)演算子を近似するディープニューラルネットワークアーキテクチャであるGIT-Netを紹介する。
GIT-Netは、PDEを定義するためによく使われる微分作用素が、特殊機能基底で表現されるときに、しばしば同義的に表現されるという事実を利用する。
数値実験により、GIT-Netは競争力のあるニューラルネットワーク演算子であり、様々なPDE問題に対して小さなテストエラーと低い評価を示すことが示された。
論文 参考訳(メタデータ) (2023-12-05T03:03:54Z) - MAgNet: Mesh Agnostic Neural PDE Solver [68.8204255655161]
気候予測は、流体シミュレーションにおける全ての乱流スケールを解決するために、微細な時間分解能を必要とする。
現在の数値モデル解法 PDEs on grids that too coarse (3km~200km on each side)
本研究では,空間的位置問合せが与えられたPDEの空間的連続解を予測する新しいアーキテクチャを設計する。
論文 参考訳(メタデータ) (2022-10-11T14:52:20Z) - SVNet: Where SO(3) Equivariance Meets Binarization on Point Cloud
Representation [65.4396959244269]
本論文は,3次元学習アーキテクチャを構築するための一般的なフレームワークを設計することによる課題に対処する。
提案手法はPointNetやDGCNNといった一般的なバックボーンに適用できる。
ModelNet40、ShapeNet、および実世界のデータセットであるScanObjectNNの実験では、この手法が効率、回転、精度の間の大きなトレードオフを達成することを示した。
論文 参考訳(メタデータ) (2022-09-13T12:12:19Z) - PhyGNNet: Solving spatiotemporal PDEs with Physics-informed Graph Neural
Network [12.385926494640932]
本稿では,グラフニューラルネットワークの基本値から偏微分方程式を解くためのPhyGNNetを提案する。
特に、計算領域を正規グリッドに分割し、グリッド上の偏微分演算子を定義し、PhyGNNetモデルを構築する最適化のためにネットワークのpde損失を構築する。
論文 参考訳(メタデータ) (2022-08-07T13:33:34Z) - Unified Field Theory for Deep and Recurrent Neural Networks [56.735884560668985]
本稿では,再帰的ネットワークと深層ネットワークの両方に対する平均場理論の統一的,体系的な導出について述べる。
平均場理論への収束は、ディープネットワークよりもリカレントネットワークの方が典型的に遅い。
提案手法はガウス過程が1/n$の体系的展開の最下位次数であることを示す。
論文 参考訳(メタデータ) (2021-12-10T15:06:11Z) - Approximation properties of Residual Neural Networks for Kolmogorov PDEs [0.0]
ResNets はコルモゴロフ偏微分方程式を定数拡散とおそらく非線形勾配係数で近似できることを示す。
FNNとは対照的に、ResNetsのEuler-Maruyama近似構造は、ResNetsの近似の構成を大幅に単純化する。
論文 参考訳(メタデータ) (2021-10-30T09:28:49Z) - Learning Deep ReLU Networks Is Fixed-Parameter Tractable [21.625005195943707]
ガウス入力に関して未知のReLUネットワークを学習する問題を考察する。
ランニング時間が周囲次元の固定重みとなるアルゴリズムを与える。
我々の境界は、隠れた単位数、深さ、スペクトルノルムのスペクトルノルム、リプシッツ定数に依存する。
論文 参考訳(メタデータ) (2020-09-28T17:58:43Z) - SpatialSim: Recognizing Spatial Configurations of Objects with Graph
Neural Networks [31.695447265278126]
本稿では,外部オブザーバの視点に不変な幾何学的空間構成のクラスを学習し,比較する方法を示す。
本稿では,新しい幾何学的推論ベンチマークであるSpatialSim(Spatial similarity)を提案する。
次に,完全接続型メッセージパスグラフニューラルネットワーク(MPGNN)が示す帰納的リレーショナルバイアスが,これらの課題の解決にどのように役立つかを検討する。
論文 参考訳(メタデータ) (2020-04-09T14:13:20Z) - Neural Operator: Graph Kernel Network for Partial Differential Equations [57.90284928158383]
この作業はニューラルネットワークを一般化し、無限次元空間(演算子)間の写像を学習できるようにすることである。
非線形活性化関数と積分作用素のクラスを構成することにより、無限次元写像の近似を定式化する。
実験により,提案したグラフカーネルネットワークには所望の特性があり,最先端技術と比較した場合の競合性能を示すことが確認された。
論文 参考訳(メタデータ) (2020-03-07T01:56:20Z) - EdgeNets:Edge Varying Graph Neural Networks [179.99395949679547]
本稿では、EdgeNetの概念を通じて、最先端グラフニューラルネットワーク(GNN)を統一する一般的なフレームワークを提案する。
EdgeNetはGNNアーキテクチャであり、異なるノードが異なるパラメータを使って異なる隣人の情報を測定することができる。
これは、ノードが実行でき、既存のグラフ畳み込みニューラルネットワーク(GCNN)とグラフアテンションネットワーク(GAT)の1つの定式化の下で包含できる一般的な線形で局所的な操作である。
論文 参考訳(メタデータ) (2020-01-21T15:51:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。