論文の概要: Scalars are universal: Gauge-equivariant machine learning, structured
like classical physics
- arxiv url: http://arxiv.org/abs/2106.06610v1
- Date: Fri, 11 Jun 2021 20:51:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 16:19:43.135543
- Title: Scalars are universal: Gauge-equivariant machine learning, structured
like classical physics
- Title(参考訳): スカラーは普遍的:古典物理学のような構造を持つゲージ同変機械学習
- Authors: Soledad Villar (JHU), David W.Hogg (Flatiron, NYU), Kate Storey-Fisher
(NYU), Weichi Yao (NYU), Ben Blum-Smith (NYU)
- Abstract要約: 物理的な法則のゲージ対称性を尊重するニューラルネットワーク。
これらの対称性の下で同変な普遍近似関数をパラメータ化することは簡単であることを示す。
これらの結果は、古典物理学におけるゲージ不変深層学習モデルが、大問題に対する優れたスケーリングで現在実現可能であることを理論的に証明している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There has been enormous progress in the last few years in designing
conceivable (though not always practical) neural networks that respect the
gauge symmetries -- or coordinate freedom -- of physical law. Some of these
frameworks make use of irreducible representations, some make use of higher
order tensor objects, and some apply symmetry-enforcing constraints. Different
physical laws obey different combinations of fundamental symmetries, but a
large fraction (possibly all) of classical physics is equivariant to
translation, rotation, reflection (parity), boost (relativity), and
permutations. Here we show that it is simple to parameterize universally
approximating polynomial functions that are equivariant under these symmetries,
or under the Euclidean, Lorentz, and Poincar\'e groups, at any dimensionality
$d$. The key observation is that nonlinear O($d$)-equivariant (and
related-group-equivariant) functions can be expressed in terms of a lightweight
collection of scalars -- scalar products and scalar contractions of the scalar,
vector, and tensor inputs. These results demonstrate theoretically that
gauge-invariant deep learning models for classical physics with good scaling
for large problems are feasible right now.
- Abstract(参考訳): 過去数年間、物理法則のゲージ対称性(または座標自由度)を尊重する(必ずしも実用的ではない)ニューラルネットワークの設計において、大きな進歩があった。
これらのフレームワークのいくつかは既約表現を使い、一部は高階テンソルオブジェクトを使い、一部は対称性強化制約を適用する。
異なる物理法則は基本対称性の異なる組み合わせに従うが、古典物理学の大きな部分(おそらく全て)は、変換、回転、反射(パリティ)、ブースト(相対性理論)、置換に同変である。
ここでは、これらの対称性の下で、あるいはユークリッド群、ローレンツ群、ポインカル群の下で、任意の次元$d$で、普遍的に近似する多項式函数をパラメータ化することが単純であることを示す。
鍵となる観察は、非線形 o($d$)-同変(および関連する群同変)関数は、スカラーの軽量コレクション(スカラー積とスカラー、ベクトル、テンソル入力のスカラー収縮)で表現できるということである。
これらの結果は、古典物理学におけるゲージ不変なディープラーニングモデルが、大きな問題のスケーリングが現在実現可能であることを理論的に示している。
関連論文リスト
- Learning equivariant tensor functions with applications to sparse vector recovery [5.557442038265024]
ローレンツ群とシンプレクティック群の対角作用に関して同変函数に着目する。
これらの特徴付けの背景にある私たちのゴールは、同変機械学習モデルを定義することです。
論文 参考訳(メタデータ) (2024-06-03T17:32:43Z) - Explainable Equivariant Neural Networks for Particle Physics: PELICAN [51.02649432050852]
PELICANは、新しい置換同変であり、ローレンツ不変アグリゲーターネットワークである。
本稿では,タグ付け(分類)とローレンツ発泡トップクォークの再構成(回帰)の両文脈におけるPELICANアルゴリズムアーキテクチャについて述べる。
PELICANの適用範囲を、クォーク開始時とグルーオン開始時とを識別するタスクに拡張し、5種類のジェットを対象とするマルチクラス同定を行う。
論文 参考訳(メタデータ) (2023-07-31T09:08:40Z) - Generative Adversarial Symmetry Discovery [19.098785309131458]
リーGANは対称性を解釈可能なリー代数基底として表現し、様々な対称性を発見できる。
学習された対称性は、予測の精度と一般化を改善するために、既存の同変ニューラルネットワークで容易に利用することができる。
論文 参考訳(メタデータ) (2023-02-01T04:28:36Z) - PELICAN: Permutation Equivariant and Lorentz Invariant or Covariant
Aggregator Network for Particle Physics [64.5726087590283]
本稿では,全6次元ローレンツ対称性に対して最大で還元された入力の集合を用いた機械学習アーキテクチャを提案する。
結果として得られたネットワークは、モデル複雑さがはるかに低いにもかかわらず、既存の競合相手すべてを上回っていることを示す。
論文 参考訳(メタデータ) (2022-11-01T13:36:50Z) - Equivariant Graph Mechanics Networks with Constraints [83.38709956935095]
本稿では,グラフ力学ネットワーク(GMN)を提案する。
GMNは、一般化された座標により、構造体の前方運動学情報(位置と速度)を表す。
大規模な実験は、予測精度、制約満足度、データ効率の観点から、最先端のGNNと比較してGMNの利点を支持する。
論文 参考訳(メタデータ) (2022-03-12T14:22:14Z) - Generalization capabilities of neural networks in lattice applications [0.0]
翻訳等変ニューラルネットワークを用いた非同変ニューラルネットワークの利点について検討する。
我々の最良の同変アーキテクチャは、その非同変アーキテクチャよりも大幅に性能を向上し、一般化できることが示される。
論文 参考訳(メタデータ) (2021-12-23T11:48:06Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z) - Frame Averaging for Invariant and Equivariant Network Design [50.87023773850824]
フレーム平均化(FA)は、既知の(バックボーン)アーキテクチャを新しい対称性タイプに不変あるいは同変に適応するためのフレームワークである。
FAモデルが最大表現力を持つことを示す。
我々は,新しいユニバーサルグラフニューラルネット(GNN),ユニバーサルユークリッド運動不変点クラウドネットワーク,およびユークリッド運動不変メッセージパッシング(MP)GNNを提案する。
論文 参考訳(メタデータ) (2021-10-07T11:05:23Z) - Equivariant bifurcation, quadratic equivariants, and symmetry breaking
for the standard representation of $S_n$ [15.711517003382484]
浅層学習者ニューラルネットワークの研究から発せられる質問に動機付けられ、ニューラルネットワークに関連する同変ダイナミクスのクラスにおいて、スパイラス・ミニマの分析法が開発されている。
突発性ミニマは自然対称性の破れから生じるのではなく、より一般的な$S_n$-equivariantの分岐によって符号化できるランドスケープ幾何学の複雑な変形によって生じる。
二次同変が存在する場合の一般分岐の結果も証明され、この研究はIhrig & Golubitsky と Chossat, Lauterback & の結果を拡張し、明らかにする。
論文 参考訳(メタデータ) (2021-07-06T06:43:06Z) - UNiTE: Unitary N-body Tensor Equivariant Network with Applications to
Quantum Chemistry [33.067344811580604]
一般の対称テンソルに対するユニタリ$N$ボディテンソル同変ニューラルネットワーク(UNiTE)を提案する。
UNiTE は、3次元回転群のようなユニタリ群の作用に関して同変である。
量子化学に適用すると、UNiTEは最先端の機械学習手法をすべて上回っている。
論文 参考訳(メタデータ) (2021-05-31T00:48:18Z) - Lorentz Group Equivariant Neural Network for Particle Physics [58.56031187968692]
ローレンツ群の下での変換に関して完全に同値なニューラルネットワークアーキテクチャを提案する。
素粒子物理学における分類問題に対して、そのような同変構造は、比較的学習可能なパラメータの少ない非常に単純なモデルをもたらすことを実証する。
論文 参考訳(メタデータ) (2020-06-08T17:54:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。