論文の概要: Equivariant Spherical Transformer for Efficient Molecular Modeling
- arxiv url: http://arxiv.org/abs/2505.23086v3
- Date: Sun, 28 Sep 2025 03:04:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 17:47:09.001841
- Title: Equivariant Spherical Transformer for Efficient Molecular Modeling
- Title(参考訳): 効率的な分子モデリングのための同変球形変圧器
- Authors: Junyi An, Xinyu Lu, Chao Qu, Yunfei Shi, Peijia Lin, Qianwei Tang, Licheng Xu, Fenglei Cao, Yuan Qi,
- Abstract要約: Equivariant Spherical Transformer (EST)は,グループ表現のFourier空間領域にトランスフォーマーのようなアーキテクチャを適用した,新しいプラグイン・アンド・プレイフレームワークである。
ESTは、決定的同変誘導バイアスを保ちながら、従来のモデルよりも高い表現性を達成する。
我々は, OC20 や QM9 のような挑戦的なベンチマークにおいて, EST ベースのモデルが最先端のパフォーマンスを達成することを示す。
- 参考スコア(独自算出の注目度): 14.931977254848048
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Equivariant Graph Neural Networks (GNNs) have significantly advanced the modeling of 3D molecular structure by leveraging group representations. However, their message passing, heavily relying on Clebsch-Gordan tensor product convolutions, suffers from restricted expressiveness due to the limited non-linearity and low degree of group representations. To overcome this, we introduce the Equivariant Spherical Transformer (EST), a novel plug-and-play framework that applies a Transformer-like architecture to the Fourier spatial domain of group representations. EST achieves higher expressiveness than conventional models while preserving the crucial equivariant inductive bias through a uniform sampling strategy of spherical Fourier transforms. As demonstrated by our experiments on challenging benchmarks like OC20 and QM9, EST-based models achieve state-of-the-art performance. For the complex molecular systems within OC20, small models empowered by EST can outperform some larger models and those using additional data. In addition to demonstrating such strong expressiveness,we provide both theoretical and experimental validation of EST's equivariance as well, paving the way for new research in this area.
- Abstract(参考訳): 等変グラフニューラルネットワーク(GNN)は,群表現を利用して3次元分子構造のモデリングを大幅に進歩させた。
しかし、それらのメッセージパッシングはクレブシュ・ゴルダンテンソル積の畳み込みに強く依存しており、非線型性や群表現の低次性によって制限された表現性に悩まされている。
これを解決するために,グループ表現のFourier空間領域にTransformerのようなアーキテクチャを適用する新しいプラグイン・アンド・プレイフレームワークであるEquivariant Spherical Transformer (EST)を紹介した。
ESTは、球状フーリエ変換の均一サンプリング戦略により、決定的同変帰納バイアスを保ちながら、従来のモデルよりも高い表現性を達成する。
OC20やQM9のような挑戦的なベンチマークの実験で示されたように、ESTベースのモデルは最先端のパフォーマンスを実現する。
OC20内の複雑な分子系では、ESTによって付与された小さなモデルは、より大きなモデルや追加のデータを使用するものよりも優れている。
このような強い表現力を示すことに加えて、ESTの等価性の理論的および実験的検証も提供し、この分野における新たな研究の道を開く。
関連論文リスト
- Sinusoidal Approximation Theorem for Kolmogorov-Arnold Networks [0.0]
Kolmogorov-Arnold Networks (KAN) は、最近マルチ層パーセプトロンの代替として提案されている。
コルモゴロフ・アルノルド表現における内・外両方の関数を、学習可能な周波数の重み付き正弦波関数に置き換えることにより、新しいカン変法を提案する。
Lorentz と Sprecher が導入した単純化に触発されて、正弦波活性化の位相を線形空間定数値に固定し、その理論的妥当性の証明を与える。
論文 参考訳(メタデータ) (2025-08-01T01:16:09Z) - Equivariant Neural Diffusion for Molecule Generation [3.9703886835821973]
3次元における分子生成のための同変神経拡散(END)を導入する。
ENDはユークリッド変換と等価な3次元分子生成の新しい拡散モデルである。
論文 参考訳(メタデータ) (2025-06-12T09:57:50Z) - Rao-Blackwell Gradient Estimators for Equivariant Denoising Diffusion [41.50816120270017]
分子やタンパク質の生成のようなドメインでは、物理系はモデルにとって重要な固有の対称性を示す。
学習のばらつきを低減し、確率的に低い分散勾配推定器を提供するフレームワークを提案する。
また,軌道拡散法(Orbit Diffusion)と呼ばれる手法を用いて,損失とサンプリングの手順を取り入れた推定器の実用的実装を提案する。
論文 参考訳(メタデータ) (2025-02-14T03:26:57Z) - Unifying O(3) Equivariant Neural Networks Design with Tensor-Network Formalism [12.008737454250463]
本稿では,SU($2$)対称量子多体問題のシミュレーションに広く用いられている融合図を用いて,同変ニューラルネットワークのための新しい同変成分を設計する手法を提案する。
与えられた局所近傍の粒子に適用すると、結果として得られる成分は「融合ブロック」と呼ばれ、任意の連続同変関数の普遍近似として機能する。
我々のアプローチは、テンソルネットワークと同変ニューラルネットワークを組み合わせることで、より表現力のある同変ニューラルネットワークを設計するための有益な方向を示唆している。
論文 参考訳(メタデータ) (2022-11-14T16:06:59Z) - Unified Fourier-based Kernel and Nonlinearity Design for Equivariant
Networks on Homogeneous Spaces [52.424621227687894]
等質空間上の群同変ネットワークに対する統一的枠組みを導入する。
昇降した特徴場のフーリエ係数の空間性を利用する。
安定化部分群におけるフーリエ係数としての特徴を取り扱う他の方法が、我々のアクティベーションの特別な場合であることを示す。
論文 参考訳(メタデータ) (2022-06-16T17:59:01Z) - Deformation Robust Roto-Scale-Translation Equivariant CNNs [10.44236628142169]
グループ同変畳み込みニューラルネットワーク(G-CNN)は,固有対称性を持つ一般化性能を著しく向上させる。
G-CNNの一般的な理論と実践的実装は、回転またはスケーリング変換の下での平面画像に対して研究されている。
論文 参考訳(メタデータ) (2021-11-22T03:58:24Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z) - Topographic VAEs learn Equivariant Capsules [84.33745072274942]
本稿では, 地理的に整理された潜伏変数を用いた深部生成モデルを効率的に学習するための新しい手法であるTopographic VAEを紹介する。
このようなモデルでは,MNIST上での桁数クラス,幅,スタイルなどの健全な特徴に応じて,その活性化を組織化することが実際に学べることが示される。
我々は、既存の群同変ニューラルネットワークの能力を拡張して、複素変換に近似した同値性を示す。
論文 参考訳(メタデータ) (2021-09-03T09:25:57Z) - E(n) Equivariant Normalizing Flows for Molecule Generation in 3D [87.12477361140716]
本稿ではユークリッド対称性に同値な生成モデルを紹介する: E(n) 等変正規化フロー(E-NFs)
私たちの知る限りでは、これは3Dで分子を生成する可能性に基づく最初の深層生成モデルである。
論文 参考訳(メタデータ) (2021-05-19T09:28:54Z) - Invariant Deep Compressible Covariance Pooling for Aerial Scene
Categorization [80.55951673479237]
本研究では,空気シーン分類におけるニュアンス変動を解決するために,新しい不変な深部圧縮性共分散プール (IDCCP) を提案する。
本研究では,公開空間画像データセットに関する広範な実験を行い,最先端の手法と比較して,この手法の優位性を実証する。
論文 参考訳(メタデータ) (2020-11-11T11:13:07Z) - Lorentz Group Equivariant Neural Network for Particle Physics [58.56031187968692]
ローレンツ群の下での変換に関して完全に同値なニューラルネットワークアーキテクチャを提案する。
素粒子物理学における分類問題に対して、そのような同変構造は、比較的学習可能なパラメータの少ない非常に単純なモデルをもたらすことを実証する。
論文 参考訳(メタデータ) (2020-06-08T17:54:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。