論文の概要: Arithmetic circuit tensor networks, multivariable function
representation, and high-dimensional integration
- arxiv url: http://arxiv.org/abs/2209.07410v1
- Date: Tue, 16 Aug 2022 23:02:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-30 22:47:42.108578
- Title: Arithmetic circuit tensor networks, multivariable function
representation, and high-dimensional integration
- Title(参考訳): 算術的回路テンソルネットワーク、多変数関数表現、高次元積分
- Authors: Ruojing Peng, Johnnie Gray, Garnet Kin-Lic Chan
- Abstract要約: 本稿では,関数の演算回路からテンソルネットワークへの直接マッピングを提案する。
最大50次元の単位ハイパーキューブ上の多変数積分の例において、回路構成のパワーを実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many computational problems can be formulated in terms of high-dimensional
functions. Simple representations of such functions and resulting computations
with them typically suffer from the "curse of dimensionality", an exponential
cost dependence on dimension. Tensor networks provide a way to represent
certain classes of high-dimensional functions with polynomial memory. This
results in computations where the exponential cost is ameliorated or in some
cases, removed, if the tensor network representation can be obtained. Here, we
introduce a direct mapping from the arithmetic circuit of a function to
arithmetic circuit tensor networks, avoiding the need to perform any
optimization or functional fit. We demonstrate the power of the circuit
construction in examples of multivariable integration on the unit hypercube in
up to 50 dimensions, where the complexity of integration can be understood from
the circuit structure. We find very favorable cost scaling compared to
quasi-Monte-Carlo integration for these cases, and further give an example
where efficient quasi-Monte-Carlo cannot be theoretically performed without
knowledge of the underlying tensor network circuit structure.
- Abstract(参考訳): 多くの計算問題は高次元関数で定式化することができる。
そのような関数の単純な表現と結果の計算は通常、次元への指数的なコスト依存である「次元の商」に悩まされる。
テンソルネットワークは多項式記憶を持つ高次元関数の特定のクラスを表現する方法を提供する。
この結果、テンソルネットワーク表現が得られれば指数的なコストが改善されるか、場合によっては取り除かれるという計算が可能となる。
本稿では,関数の算術回路から算術回路テンソルネットワークへの直接マッピングを導入する。
最大50次元の単位ハイパーキューブ上での多変数積分の例において、回路構成の複雑さを回路構造から理解することが可能な回路構成のパワーを実証する。
これらの場合、準モンテ-カルロ積分と比較して非常に有利なコストスケーリングを見いだし、さらに、基礎となるテンソルネットワーク回路構造を知らずに効率的な準モンテ-カルロを理論的に実行できない例を示す。
関連論文リスト
- Compressing multivariate functions with tree tensor networks [0.0]
1次元テンソルネットワークは、連続関数の数値アンザッツとしてますます利用されている。
構造木テンソルネットワークが、一般的に使用されるテンソルトレインよりもはるかに効率的なアンザッツを提供することを示す。
論文 参考訳(メタデータ) (2024-10-04T16:20:52Z) - Chebyshev approximation and composition of functions in matrix product states for quantum-inspired numerical analysis [0.0]
解析的かつ高度に微分可能な関数をMPSチェビシェフ補間子として表現するために,反復的なチェビシェフ展開とクレショー評価を用いるアルゴリズムを提案する。
これは高微分可能な函数に対する急速な収束を示し、理論的な予測と整合し、多次元のシナリオに効率的に一般化する。
論文 参考訳(メタデータ) (2024-07-12T18:00:06Z) - Unified framework for efficiently computable quantum circuits [0.0]
クリフォードとマッチゲートからなる量子回路は、古典的コンピュータ上で効率的にシミュレート可能であることが知られている2種類の回路である。
我々は、これらの回路を効率的にシミュレートできる特別な構造を透過的に示す統一されたフレームワークを導入する。
論文 参考訳(メタデータ) (2024-01-16T08:04:28Z) - Multi-Grid Tensorized Fourier Neural Operator for High-Resolution PDEs [93.82811501035569]
本稿では,メモリ要求を低減し,より一般化したデータ効率・並列化可能な演算子学習手法を提案する。
MG-TFNOは、実世界の実世界の現象の局所的構造と大域的構造を活用することで、大規模な分解能にスケールする。
乱流ナビエ・ストークス方程式において150倍以上の圧縮で誤差の半分以下を達成できる優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-29T20:18:52Z) - Quantum correlation functions through tensor network path integral [0.0]
テンソルネットワークは、オープン量子系の平衡相関関数を計算するために利用される。
溶媒が量子系に与える影響は、影響関数によって取り込まれている。
この手法の設計と実装は、速度理論、シンメトリゼーションされたスピン相関関数、動的感受性計算、量子熱力学からの図解とともに議論される。
論文 参考訳(メタデータ) (2023-08-21T07:46:51Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - Statistically Meaningful Approximation: a Case Study on Approximating
Turing Machines with Transformers [50.85524803885483]
本研究は,統計的学習性を示すために近似ネットワークを必要とする統計有意(SM)近似の形式的定義を提案する。
回路とチューリングマシンの2つの機能クラスに対するSM近似について検討する。
論文 参考訳(メタデータ) (2021-07-28T04:28:55Z) - A Pairwise Connected Tensor Network Representation of Path Integrals [0.0]
ファインマン・ヴァーノン関数を含む実時間経路積分のテンソル的性質をどのように活用できるかが最近示されている。
ここでは、一般化テンソルネットワークを導出し、影響関数の対相互作用構造を具体化して実装する。
この対接続テンソルネットワークパス積分(PCTNPI)は、典型的なスピンボソン問題への応用とスペクトル密度の正確な形に起因する差の探索を通じて説明される。
論文 参考訳(メタデータ) (2021-06-28T18:30:17Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z) - A Functional Perspective on Learning Symmetric Functions with Neural
Networks [48.80300074254758]
本研究では,測定値に基づいて定義されたニューラルネットワークの学習と表現について検討する。
正規化の異なる選択の下で近似と一般化境界を確立する。
得られたモデルは効率よく学習でき、入力サイズにまたがる一般化保証を享受できる。
論文 参考訳(メタデータ) (2020-08-16T16:34:33Z) - Continuous-in-Depth Neural Networks [107.47887213490134]
まず最初に、このリッチな意味では、ResNetsは意味のある動的でないことを示します。
次に、ニューラルネットワークモデルが連続力学系を表現することを実証する。
ResNetアーキテクチャの詳細な一般化としてContinuousNetを紹介します。
論文 参考訳(メタデータ) (2020-08-05T22:54:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。