論文の概要: Constructing Invariant and Equivariant Operations by Symmetric Tensor Network
- arxiv url: http://arxiv.org/abs/2508.12596v1
- Date: Mon, 18 Aug 2025 03:13:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.956515
- Title: Constructing Invariant and Equivariant Operations by Symmetric Tensor Network
- Title(参考訳): 対称テンソルネットワークによる不変・等変演算の構成
- Authors: Meng Zhang, Chao Wang, Hao Zhang, Shaojun Dong, Lixin He,
- Abstract要約: この研究は、有効な不変および同変演算を構築するための体系的な方法を示す。
入力と出力を異なるランクのカルトテンソルの形で扱うことができ、異なる型を持つ球面テンソルも扱うことができる。
また、この手法を用いて、幾何グラフニューラルネットワークのための同変相互作用メッセージを設計し、同変機械学習モデルを用いて材料法則を学習する。
- 参考スコア(独自算出の注目度): 8.759616567360537
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Design of neural networks that incorporate symmetry is crucial for geometric deep learning. Central to this effort is the development of invariant and equivariant operations. This works presents a systematic method for constructing valid invariant and equivariant operations. It can handle inputs and outputs in the form of Cartesian tensors with different rank, as well as spherical tensors with different types. In addition, our method features a graphical representation utilizing the symmetric tensor network, which simplifies both the proofs and constructions related to invariant and equivariant functions. We also apply this approach to design the equivariant interaction message for the geometry graph neural network, and equivariant machine learning model to learn the constitutive law of materials.
- Abstract(参考訳): 対称性を含むニューラルネットワークの設計は、幾何学的深層学習に不可欠である。
この取り組みの中心は不変かつ同変な操作の開発である。
この研究は、有効な不変および同変演算を構成する体系的な方法を示す。
入力と出力を異なるランクのカルトテンソルの形で扱うことができ、異なる型を持つ球面テンソルも扱うことができる。
さらに, 対称テンソルネットワークを用いたグラフィカル表現を特徴とし, 不変関数および同変関数に関する証明と構成の両方を単純化する。
また、この手法を用いて、幾何グラフニューラルネットワークのための同変相互作用メッセージを設計し、同変機械学習モデルを用いて材料の構成法則を学習する。
関連論文リスト
- Permutation Equivariant Neural Networks for Symmetric Tensors [0.0]
我々は、$mathbbRn$の対称パワー空間の間のすべての線型置換同変関数の2つの異なる特徴付けを示す。
これらの関数は標準テンソルと比較して非常に効率的であり、異なる大きさの対称によく一般化できることを示した。
論文 参考訳(メタデータ) (2025-03-14T10:33:13Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - Unifying O(3) Equivariant Neural Networks Design with Tensor-Network Formalism [12.008737454250463]
本稿では,SU($2$)対称量子多体問題のシミュレーションに広く用いられている融合図を用いて,同変ニューラルネットワークのための新しい同変成分を設計する手法を提案する。
与えられた局所近傍の粒子に適用すると、結果として得られる成分は「融合ブロック」と呼ばれ、任意の連続同変関数の普遍近似として機能する。
我々のアプローチは、テンソルネットワークと同変ニューラルネットワークを組み合わせることで、より表現力のある同変ニューラルネットワークを設計するための有益な方向を示唆している。
論文 参考訳(メタデータ) (2022-11-14T16:06:59Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z) - Geometric and Physical Quantities improve E(3) Equivariant Message
Passing [59.98327062664975]
等変グラフネットワークを一般化する等変グラフニューラルネットワーク(SEGNN)を提案する。
このモデルは、ステアブルで構成され、メッセージと更新機能の両方に幾何学的および物理的情報を組み込むことができる。
計算物理学と化学におけるいくつかの課題において,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-10-06T16:34:26Z) - Topographic VAEs learn Equivariant Capsules [84.33745072274942]
本稿では, 地理的に整理された潜伏変数を用いた深部生成モデルを効率的に学習するための新しい手法であるTopographic VAEを紹介する。
このようなモデルでは,MNIST上での桁数クラス,幅,スタイルなどの健全な特徴に応じて,その活性化を組織化することが実際に学べることが示される。
我々は、既存の群同変ニューラルネットワークの能力を拡張して、複素変換に近似した同値性を示す。
論文 参考訳(メタデータ) (2021-09-03T09:25:57Z) - Learning Equivariant Energy Based Models with Equivariant Stein
Variational Gradient Descent [80.73580820014242]
本稿では,確率モデルに対称性を組み込むことにより,確率密度の効率的なサンプリングと学習の問題に焦点をあてる。
まず、等変シュタイン変分勾配Descentアルゴリズムを導入する。これは、対称性を持つ密度からサンプリングするスタインの同一性に基づく同変サンプリング法である。
我々はエネルギーベースモデルのトレーニングを改善し、スケールアップする新しい方法を提案する。
論文 参考訳(メタデータ) (2021-06-15T01:35:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。