論文の概要: Geometrical aspects of lattice gauge equivariant convolutional neural
networks
- arxiv url: http://arxiv.org/abs/2303.11448v1
- Date: Mon, 20 Mar 2023 20:49:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-22 17:27:06.224289
- Title: Geometrical aspects of lattice gauge equivariant convolutional neural
networks
- Title(参考訳): 格子ゲージ同変畳み込みニューラルネットワークの幾何学的側面
- Authors: Jimmy Aronsson, David I. M\"uller and Daniel Schuh
- Abstract要約: 格子ゲージ同変畳み込みニューラルネットワーク(L-CNN)は、非アベリア格子ゲージ理論に適用可能な畳み込みニューラルネットワークの枠組みである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lattice gauge equivariant convolutional neural networks (L-CNNs) are a
framework for convolutional neural networks that can be applied to non-Abelian
lattice gauge theories without violating gauge symmetry. We demonstrate how
L-CNNs can be equipped with global group equivariance. This allows us to extend
the formulation to be equivariant not just under translations but under global
lattice symmetries such as rotations and reflections. Additionally, we provide
a geometric formulation of L-CNNs and show how convolutions in L-CNNs arise as
a special case of gauge equivariant neural networks on SU($N$) principal
bundles.
- Abstract(参考訳): 格子ゲージ同変畳み込みニューラルネットワーク(Lattice gauge equivariant Convolutional Neural Network, L-CNN)は、非アベリア格子ゲージ理論に適用可能な畳み込みニューラルネットワークのフレームワークである。
我々は,L-CNNがグローバルなグループ同値性を備えることを実証する。
これにより、定式化を変換だけでなく、回転や反射のような大域格子対称性の下でも同値に拡張することができる。
さらに、L-CNNの幾何学的定式化と、SU($N$)主バンドル上のゲージ同変ニューラルネットワークの特別な場合として、L-CNNの畳み込みがどのように生じるかを示す。
関連論文リスト
- Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Non Commutative Convolutional Signal Models in Neural Networks:
Stability to Small Deformations [111.27636893711055]
非可換畳み込みフィルタのフィルタ特性と安定性について検討する。
この結果は,グループニューラルネットワーク,マルチグラフニューラルネットワーク,四元系ニューラルネットワークに直接影響する。
論文 参考訳(メタデータ) (2023-10-05T20:27:22Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - Interrelation of equivariant Gaussian processes and convolutional neural
networks [77.34726150561087]
現在、ニューラルネットワーク(NN)とガウス過程(GP)の関係に基づく機械学習(ML)には、かなり有望な新しい傾向がある。
本研究では、ベクトル値のニューロン活性化を持つ2次元ユークリッド群とそれに対応する独立に導入された同変ガウス過程(GP)との関係を確立する。
論文 参考訳(メタデータ) (2022-09-17T17:02:35Z) - Revisiting Transformation Invariant Geometric Deep Learning: Are Initial
Representations All You Need? [80.86819657126041]
変換不変および距離保存初期表現は変換不変性を達成するのに十分であることを示す。
具体的には、多次元スケーリングを変更することで、変換不変かつ距離保存された初期点表現を実現する。
我々は、TinvNNが変換不変性を厳密に保証し、既存のニューラルネットワークと組み合わせられるほど汎用的で柔軟なことを証明した。
論文 参考訳(メタデータ) (2021-12-23T03:52:33Z) - Preserving gauge invariance in neural networks [0.0]
格子ゲージ同変畳み込みニューラルネットワーク(L-CNN)
L-CNNは格子上のゲージ不変および同変関数の大きなクラスを表現することができることを示す。
論文 参考訳(メタデータ) (2021-12-21T14:08:12Z) - Lattice gauge symmetry in neural networks [0.0]
格子ゲージ同変畳み込みニューラルネットワーク(L-CNN)と呼ばれる新しいニューラルネットワークアーキテクチャについてレビューする。
我々は、ゲージ同変畳み込み層と双線型層を明示的に構築するために使用するゲージ同値の概念について議論する。
L-CNNと等価でないCNNの性能は、一見単純な非線形回帰タスクを用いて比較する。
論文 参考訳(メタデータ) (2021-11-08T11:20:11Z) - Implicit Bias of Linear Equivariant Networks [2.580765958706854]
群同変畳み込みニューラルネットワーク(G-CNN)は畳み込みニューラルネットワーク(CNN)の一般化である
低ランクフーリエ行列係数の解に勾配勾配勾配を学習した$L$層全幅線形G-CNNが収束することを示す。
論文 参考訳(メタデータ) (2021-10-12T15:34:25Z) - Encoding Involutory Invariance in Neural Networks [1.6371837018687636]
ある状況では、ニューラルネットワーク(NN)は、基礎となる物理対称性に従うデータに基づいて訓練される。
本研究では、関数がパリティまでのインボリュート線型/ファイン変換に対して不変な特別な対称性について検討する。
数値実験により,提案モデルが与えられた対称性を尊重しながらベースラインネットワークより優れていたことが示唆された。
また,本手法を水平/垂直反射対称性を持つデータセットに対する畳み込みNN分類タスクに適用する手法も提案されている。
論文 参考訳(メタデータ) (2021-06-07T16:07:15Z) - Lattice gauge equivariant convolutional neural networks [0.0]
汎用機械学習アプリケーションのためのLattice gauge equivariant Convolutional Neural Networks (L-CNNs)を提案する。
L-CNNは従来の畳み込みニューラルネットワークでは見つけられないゲージ不変量を学習・一般化できることを示した。
論文 参考訳(メタデータ) (2020-12-23T19:00:01Z) - Gauge Equivariant Mesh CNNs: Anisotropic convolutions on geometric
graphs [81.12344211998635]
メッシュ上の畳み込みを定義する一般的なアプローチは、それらをグラフとして解釈し、グラフ畳み込みネットワーク(GCN)を適用することである。
本稿では、GCNを一般化して異方性ゲージ同変カーネルを適用するGauge Equivariant Mesh CNNを提案する。
本実験は,従来のGCNおよび他の手法と比較して,提案手法の表現性を大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-03-11T17:21:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。