論文の概要: SeQuant Framework for Symbolic and Numerical Tensor Algebra. I. Core Capabilities
- arxiv url: http://arxiv.org/abs/2511.09943v1
- Date: Fri, 14 Nov 2025 01:20:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.594507
- Title: SeQuant Framework for Symbolic and Numerical Tensor Algebra. I. Core Capabilities
- Title(参考訳): 記号的および数値的テンソル代数のためのSeQuantフレームワーク I. コア機能
- Authors: Bimal Gaudel, Robert G. Adam, Ajay Melekamburath, Conner Masteran, Nakul Teke, Azam Besharatnik, Andreas Köhn, Edward F. Valeev,
- Abstract要約: SeQuant は可換(スカラー)環と非可換(演算)環上のテンソルのシンボリック代数のオープンソースライブラリである。
その機能の大部分をサポートする重要な革新は、グラフ理論テンソルネットワーク標準化器である。
- 参考スコア(独自算出の注目度): 0.9556128246747769
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: SeQuant is an open-source library for symbolic algebra of tensors over commutative (scalar) and non-commutative (operator) rings. The key innovation supporting most of its functionality is a graph-theoretic tensor network (TN) canonicalizer that can handle tensor networks with symmetries faster than their standard group-theoretic counterparts. The TN canonicalizer is used for routine simplification of conventional tensor expressions, for optimizing application of Wick's theorem (used to canonicalize products of tensors over operator fields), and for manipulation of the intermediate representation leading to the numerical evaluation. Notable features of SeQuant include support for noncovariant tensor networks (which often arise from tensor decompositions) and for tensors with modes that depend parametrically on indices of other tensor modes (such dependencies between degrees of freedom are naturally viewed as nesting of tensors, "tensors of tensors" arising in block-wise data compressions in data science and modern quantum simulation). SeQuant blurs the line between pure symbolic manipulation/code generation and numerical evaluation by including compiler-like components to optimize and directly interpret tensor expressions using external numerical tensor algebra frameworks. The SeQuant source code is available at https://github.com/ValeevGroup/SeQuant.
- Abstract(参考訳): SeQuant は可換(スカラー)環と非可換(演算)環上のテンソルのシンボリック代数のオープンソースライブラリである。
その機能の大部分をサポートする重要な革新は、グラフ理論テンソルネットワーク(TN)標準器であり、標準の群理論テンソルネットワークよりも高速にテンソルネットワークを処理できる。
TNカノニカライザは、従来のテンソル式を日常的に単純化し、ウィックの定理(作用素場上のテンソル積の正準化に使用される)の適用を最適化し、数値的な評価につながる中間表現の操作に使用される。
SeQuantの注目すべき特徴は、非共変テンソルネットワーク(しばしばテンソル分解から生じる)のサポートや、他のテンソルモードの指標にパラメトリックに依存するモードのテンソル(このような自由度間の依存関係は、データサイエンスや現代の量子シミュレーションにおいてブロックワイドなデータ圧縮で生じるテンソルのテンソルと自然に見なされる)のサポートである。
SeQuantは、外部の数値テンソル代数フレームワークを使用してテンソル表現を最適化し、直接解釈するコンパイラライクなコンポーネントを含むことによって、純粋なシンボル操作/コード生成と数値評価の境界を曖昧にしている。
SeQuantのソースコードはhttps://github.com/ValeevGroup/SeQuantで入手できる。
関連論文リスト
- Tensor Decomposition Networks for Fast Machine Learning Interatomic Potential Computations [48.46721044282335]
テンソル分解ネットワーク(TDN)は、計算処理の劇的な高速化と競合する性能を実現する。
1億5500万のDFT計算スナップショットを含む分子緩和データセットPubChemQCRのTDNを評価した。
その結果,TDNは計算処理の劇的な高速化と競合する性能を示した。
論文 参考訳(メタデータ) (2025-07-01T18:46:27Z) - Tensor cumulants for statistical inference on invariant distributions [49.80012009682584]
我々は,PCAが信号の大きさの臨界値で計算的に困難になることを示す。
我々は、与えられた次数の不変量に対して明示的でほぼ直交的な基底を与える新しい対象の集合を定義する。
また、異なるアンサンブルを区別する新しい問題も分析できます。
論文 参考訳(メタデータ) (2024-04-29T14:33:24Z) - Symbolically integrating tensor networks over various random tensors by
the second version of Python RTNI [0.5439020425818999]
我々は、Haar分散ユニタリ行列上のテンソルネットワークを象徴的に統合するRTNIのPythonバージョンをアップグレードしている。
現在、PyRTNI2 はハール分布行列と実かつ複素正規ガウステンソルも扱うことができる。
本稿では,プログラムの背後にある数学を説明し,それを用いてどのようなテンソルネットワーク計算を行うことができるかを示す。
論文 参考訳(メタデータ) (2023-09-03T13:14:46Z) - TensorKrowch: Smooth integration of tensor networks in machine learning [46.0920431279359]
PyTorch上に構築されたオープンソースのPythonライブラリであるKrowchを紹介します。
ユーザは任意のテンソルネットワークを構築してトレーニングし、より複雑なディープラーニングモデルにレイヤとして統合することができる。
論文 参考訳(メタデータ) (2023-06-14T15:55:19Z) - Low-Rank Tensor Function Representation for Multi-Dimensional Data
Recovery [52.21846313876592]
低ランクテンソル関数表現(LRTFR)は、無限解像度でメッシュグリッドを超えてデータを連続的に表現することができる。
テンソル関数に対する2つの基本的な概念、すなわちテンソル関数ランクとローランクテンソル関数分解を開発する。
提案手法は,最先端手法と比較して,提案手法の優越性と汎用性を裏付けるものである。
論文 参考訳(メタデータ) (2022-12-01T04:00:38Z) - Stack operation of tensor networks [10.86105335102537]
本稿では,テンソルネットワークスタックアプローチに対する数学的に厳密な定義を提案する。
本稿では、行列製品状態に基づく機械学習を例として、主なアイデアを例に挙げる。
論文 参考訳(メタデータ) (2022-03-28T12:45:13Z) - Frame Averaging for Invariant and Equivariant Network Design [50.87023773850824]
フレーム平均化(FA)は、既知の(バックボーン)アーキテクチャを新しい対称性タイプに不変あるいは同変に適応するためのフレームワークである。
FAモデルが最大表現力を持つことを示す。
我々は,新しいユニバーサルグラフニューラルネット(GNN),ユニバーサルユークリッド運動不変点クラウドネットワーク,およびユークリッド運動不変メッセージパッシング(MP)GNNを提案する。
論文 参考訳(メタデータ) (2021-10-07T11:05:23Z) - UNiTE: Unitary N-body Tensor Equivariant Network with Applications to
Quantum Chemistry [33.067344811580604]
一般の対称テンソルに対するユニタリ$N$ボディテンソル同変ニューラルネットワーク(UNiTE)を提案する。
UNiTE は、3次元回転群のようなユニタリ群の作用に関して同変である。
量子化学に適用すると、UNiTEは最先端の機械学習手法をすべて上回っている。
論文 参考訳(メタデータ) (2021-05-31T00:48:18Z) - T-Basis: a Compact Representation for Neural Networks [89.86997385827055]
テンソルの集合をコンパクトに表現するための概念である T-Basis をニューラルネットワークでよく見られる任意の形状で導入する。
ニューラルネットワーク圧縮の課題に対する提案手法の評価を行い, 許容性能低下時に高い圧縮速度に達することを示す。
論文 参考訳(メタデータ) (2020-07-13T19:03:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。