論文の概要: Integral Formulas for Vector Spherical Tensor Products
- arxiv url: http://arxiv.org/abs/2603.08630v1
- Date: Mon, 09 Mar 2026 17:09:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:16.594968
- Title: Integral Formulas for Vector Spherical Tensor Products
- Title(参考訳): ベクトル球面テンソル生成物の積分公式
- Authors: Valentin Heyraud, Zachary Weller-Davies, Jules Tilly,
- Abstract要約: 我々はベクトル球面積を単純化する積分公式を導出し、ガウントテンソル積を非対称結合に一般化する。
我々は、GuntとVector Spherical Productsが、通常のClebsch-Gordan Productsに関連する表現性と実行時のトレードオフをいかに制御できるかについて議論する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We derive integral formulas that simplify the Vector Spherical Tensor Product recently introduced by Xie et al., which generalizes the Gaunt tensor product to antisymmetric couplings. In particular, we obtain explicit closed-form expressions for the antisymmetric analogues of the Gaunt coefficients. This enables us to simulate the Clebsch-Gordan tensor product using a single Vector Spherical Tensor Product, yielding a $9\times$ reduction in the required tensor product evaluations. Our results enable efficient and practical implementations of the Vector Spherical Tensor Product, paving the way for applications of this generalization of Gaunt tensor products in $\mathrm{SO}(3)$-equivariant neural networks. Moreover, we discuss how the Gaunt and the Vector Spherical Tensor Products allow to control the expressivity-runtime tradeoff associated with the usual Clebsch-Gordan Tensor Products. Finally, we investigate low rank decompositions of the normalizations of the considered tensor products in view of their use in equivariant neural networks.
- Abstract(参考訳): 我々は、最近 Xie et al によって導入されたベクトル球面テンソル積を単純化する積分公式を導出する。
特に、ガウント係数の反対称類似に対する明示的な閉形式式を得る。
これにより、Clebsch-Gordanテンソル積を1つのベクトル球面テンソル積を用いてシミュレートすることができ、必要なテンソル積の評価を9\times$に削減できる。
その結果,ベクトル球面テンソル積の効率的かつ実用的な実装が可能となり,ガウントテンソル積を$\mathrm{SO}(3)$-equivariant ニューラルネットワークで一般化する方法が得られた。
さらに、GuntとVector Spherical Tensor Productsが、通常のClebsch-Gordan Tensor Productsに関連する表現性と実行時のトレードオフを制御できるようにする方法について論じる。
最後に、同変ニューラルネットワークにおけるそれらの使用の観点から、考慮されたテンソル積の正規化の低階分解について検討する。
関連論文リスト
- Asymptotically Fast Clebsch-Gordan Tensor Products with Vector Spherical Harmonics [1.3575254859416315]
我々は、Clebsch-Gordanテンソル積に真に利益をもたらす最初の完全アルゴリズムを提供する。
完全なCGTPの場合、我々のアルゴリズムは単純な$O(L4log2 L)$から$O(L4log2 L)$へと複雑さをもたらす。
論文 参考訳(メタデータ) (2026-02-25T00:41:35Z) - TensorLens: End-to-End Transformer Analysis via High-Order Attention Tensors [53.891337639229285]
高次アテンション・インタラクション接続を通して表現された入力依存線形演算子として変換器全体をキャプチャする新しい定式化である attentionLens を導入する。
本実験は,注目テンソルが,解釈可能性とモデル理解を目的としたツール開発のための強力な基盤となることを実証した。
論文 参考訳(メタデータ) (2026-01-25T19:21:25Z) - Tensor cumulants for statistical inference on invariant distributions [49.80012009682584]
我々は,PCAが信号の大きさの臨界値で計算的に困難になることを示す。
我々は、与えられた次数の不変量に対して明示的でほぼ直交的な基底を与える新しい対象の集合を定義する。
また、異なるアンサンブルを区別する新しい問題も分析できます。
論文 参考訳(メタデータ) (2024-04-29T14:33:24Z) - Enabling Efficient Equivariant Operations in the Fourier Basis via Gaunt Tensor Products [14.984349569810275]
そこで本研究では, テンソル積の複雑さを加速する体系的手法を提案する。
本稿では,効率的な同変演算を行うための新しい手法として機能するGaunt Productを紹介する。
Open Catalyst Projectと3BPAデータセットの実験では、効率の向上と性能向上の両面が示されている。
論文 参考訳(メタデータ) (2024-01-18T18:57:10Z) - Tensor Factorization via Transformed Tensor-Tensor Product for Image
Alignment [3.0969191504482243]
本研究では,観測画像が未知の領域変換によって変形する線形相関画像アライメントの問題について検討する。
3階テンソルの正面スライスとしてこれらの画像を積み重ねることで,基礎となるテンソルの低ランク性について検討する。
論文 参考訳(メタデータ) (2022-12-12T05:52:26Z) - Decomposable Sparse Tensor on Tensor Regression [1.370633147306388]
テンソル回帰のスパースローランクテンソルを考えると、予測子 $mathcalX$ とレスポンス $mathcalY$ はどちらも高次元テンソルである。
本稿では,契約部と生成部から構成されるステージワイド探索に基づく高速解を提案する。
論文 参考訳(メタデータ) (2022-12-09T18:16:41Z) - Unified Fourier-based Kernel and Nonlinearity Design for Equivariant
Networks on Homogeneous Spaces [52.424621227687894]
等質空間上の群同変ネットワークに対する統一的枠組みを導入する。
昇降した特徴場のフーリエ係数の空間性を利用する。
安定化部分群におけるフーリエ係数としての特徴を取り扱う他の方法が、我々のアクティベーションの特別な場合であることを示す。
論文 参考訳(メタデータ) (2022-06-16T17:59:01Z) - Unsupervised Disentanglement with Tensor Product Representations on the
Torus [78.6315881294899]
オートエンコーダで表現を学習する現在の方法では、ほとんどベクターを潜在表現として用いている。
本研究では,この目的のためにテンソル積構造を用いることを提案する。
通常分布する特徴を対象とする従来の変分法とは対照的に,表現の潜在空間は単位円の集合上に均一に分布する。
論文 参考訳(メタデータ) (2022-02-13T04:23:12Z) - When Random Tensors meet Random Matrices [50.568841545067144]
本稿では,ガウス雑音を伴う非対称次数-$d$スパイクテンソルモデルについて検討する。
検討したモデルの解析は、等価なスパイクされた対称テクシットブロック-ワイドランダム行列の解析に起因していることを示す。
論文 参考訳(メタデータ) (2021-12-23T04:05:01Z) - Pseudo-Euclidean Attract-Repel Embeddings for Undirected Graphs [73.0261182389643]
ドット積埋め込みはグラフをとり、2つのベクトル間のドット積がエッジの強さを与えるようなノードのベクトルを構成する。
ノードを擬ユークリッド空間に埋め込むことにより、推移性仮定を除去する。
Pseudo-Euclidean 埋め込みはネットワークを効率よく圧縮でき、近接する隣人の複数の概念をそれぞれ独自の解釈で解釈でき、既存のモデルに'スロットできる。
論文 参考訳(メタデータ) (2021-06-17T17:23:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。