論文の概要: From Tree Tensor Network to Multiscale Entanglement Renormalization
Ansatz
- arxiv url: http://arxiv.org/abs/2110.08794v2
- Date: Sun, 26 Jun 2022 02:35:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-11 06:19:53.804892
- Title: From Tree Tensor Network to Multiscale Entanglement Renormalization
Ansatz
- Title(参考訳): ツリーテンソルネットワークからマルチスケールエンタングル化再正規化アンサッツへ
- Authors: Xiangjian Qian and Mingpu Qin
- Abstract要約: 我々は、拡張木ネットワーク(ATTN)における制約を解放することで、Flly-Augmented Tree Network(FATTN)と呼ばれる新しいツリーネットワーク(TTN)ベースのTNSを導入する。
TTNの物理的層にディジエンタングルが増設されると、FATTNはTTNやATTNよりもより絡み合うことができる。
TTNおよびATTNに対するFATTNの精度の向上を示すために, 横イジングモデルの基底状態エネルギーに関するベンチマーク結果を提供した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tensor Network States (TNS) offer an efficient representation for the ground
state of quantum many body systems and play an important role in the
simulations of them. Numerous TNS are proposed in the past few decades.
However, due to the high cost of TNS for two-dimensional systems, a balance
between the encoded entanglement and computational complexity of TNS is yet to
be reached. In this work we introduce a new Tree Tensor Network (TTN) based TNS
dubbed as Fully- Augmented Tree Tensor Network (FATTN) by releasing the
constraint in Augmented Tree Tensor Network (ATTN). When disentanglers are
augmented in the physical layer of TTN, FATTN can provide more entanglement
than TTN and ATTN. At the same time, FATTN maintains the scaling of
computational cost with bond dimension in TTN and ATTN. Benchmark results on
the ground state energy for the transverse Ising model are provided to
demonstrate the improvement of accuracy of FATTN over TTN and ATTN. Moreover,
FATTN is quite flexible which can be constructed as an interpolation between
Tree Tensor Network and Multiscale Entanglement Renormalization Ansatz (MERA)
to reach a balance between the encoded entanglement and the computational cost.
- Abstract(参考訳): テンソルネットワーク状態(TNS)は、量子多体系の基底状態の効率的な表現を提供し、それらのシミュレーションにおいて重要な役割を果たす。
過去数十年間、多くのtnsが提案されている。
しかし, 2次元システムにおけるTNSの高コストのため, TNSのエンコードエンタングルメントと計算複雑性のバランスは未定である。
本研究では, 拡張木テンソルネットワーク (ATTN) の制約を解放し, FATTN (Fully-Augmented Tree Tensor Network) と呼ばれる新しいツリーテンソルネットワーク (TTN) を導入した。
TTNの物理的層にディジエンタングルが増設されると、FATTNはTTNやATTNよりもより絡み合うことができる。
同時に、FATTNは、TTNとATTNの結合次元による計算コストのスケーリングを維持している。
TTNおよびATTNに対するFATTNの精度の向上を示すために, 横イジングモデルの基底状態エネルギーに関するベンチマーク結果を提供した。
さらに、FATTNは非常に柔軟で、木テンソルネットワークとマルチスケールエンタングルメント再正規化アンサッツ(MERA)の補間として構築でき、エンコードされた絡み合いと計算コストのバランスに達することができる。
関連論文リスト
- LC-TTFS: Towards Lossless Network Conversion for Spiking Neural Networks
with TTFS Coding [55.64533786293656]
我々は,AIタスクにおいて,ANNのアクティベーション値とSNNのスパイク時間とのほぼ完全なマッピングを実現することができることを示す。
この研究は、電力制約のあるエッジコンピューティングプラットフォームに超低消費電力のTTFSベースのSNNをデプロイする方法を舗装している。
論文 参考訳(メタデータ) (2023-10-23T14:26:16Z) - Entanglement bipartitioning and tree tensor networks [0.0]
本稿では,量子多体システムのためのツリーテンソルネットワーク(TTN)の最適ネットワーク構造を設計するための絡み合い分割手法を提案する。
最大16個のサイトの絡み合い分割は、1次元と2次元で$S=1/2$ハイゼンベルクモデルに対して非自明なツリーネットワーク構造をもたらすことを示した。
論文 参考訳(メタデータ) (2022-10-21T05:36:03Z) - Automatic structural optimization of tree tensor networks [0.0]
そこで本稿では,等距離線を局所的に再接続することで,ネットワーク構造を自動的に最適化するTTNアルゴリズムを提案する。
システムの基底状態に埋め込まれた絡み合い構造を,最適化TTNにおける完全二分木として効率的に可視化できることを実証した。
論文 参考訳(メタデータ) (2022-09-07T14:51:39Z) - Tensor Network States with Low-Rank Tensors [6.385624548310884]
テンソルネットワークを構成するテンソルに低ランク制約を課すという考え方を導入する。
この修正により、ネットワーク最適化の時間と複雑さを大幅に削減できる。
テンソル階数 $r$ を$m$ の順序で選ぶことは、高い精度の基底状態近似を得るのに十分である。
論文 参考訳(メタデータ) (2022-05-30T17:58:16Z) - Exploiting Low-Rank Tensor-Train Deep Neural Networks Based on
Riemannian Gradient Descent With Illustrations of Speech Processing [74.31472195046099]
我々は、低ランクテンソルトレイン深層ニューラルネットワーク(TT-DNN)を用いて、エンドツーエンドのディープラーニングパイプライン、すなわちLR-TT-DNNを構築する。
LR-TT-DNNと畳み込みニューラルネットワーク(CNN)を組み合わせたハイブリッドモデルを構築し、性能を向上する。
我々の実証的な証拠は、モデルパラメータが少ないLR-TT-DNNとCNN+(LR-TT-DNN)モデルが、TT-DNNとCNN+(LR-TT-DNN)モデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-03-11T15:55:34Z) - Low-Precision Training in Logarithmic Number System using Multiplicative
Weight Update [49.948082497688404]
大規模ディープニューラルネットワーク(DNN)のトレーニングは、現在かなりの量のエネルギーを必要としており、深刻な環境影響をもたらす。
エネルギーコストを削減するための有望なアプローチの1つは、DNNを低精度で表現することである。
対数数システム(LNS)と乗算重み更新訓練法(LNS-Madam)を併用した低精度トレーニングフレームワークを共同で設計する。
論文 参考訳(メタデータ) (2021-06-26T00:32:17Z) - Block-term Tensor Neural Networks [29.442026567710435]
ブロック終端テンソル層(BT層)は,CNNやRNNなどのニューラルネットワークモデルに容易に適用可能であることを示す。
CNNとRNNのBT層は、元のDNNの表現力を維持したり改善したりしながら、パラメータ数に対して非常に大きな圧縮比を達成することができる。
論文 参考訳(メタデータ) (2020-10-10T09:58:43Z) - A Fully Tensorized Recurrent Neural Network [48.50376453324581]
重み付けされたRNNアーキテクチャを導入し、各リカレントセル内の個別の重み付け行列を共同で符号化する。
このアプローチはモデルのサイズを数桁削減するが、通常のRNNと同等あるいは優れた性能を維持している。
論文 参考訳(メタデータ) (2020-10-08T18:24:12Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z) - Randomly Weighted, Untrained Neural Tensor Networks Achieve Greater
Relational Expressiveness [3.5408022972081694]
ランダムに描画された未学習テンソルをトレーニングされたデコーダネットワークを備えたネットワークに組み込むランダム重み付きネットワーク(RWTN)を提案する。
RWTNは、画像解釈(SIITN)のために伝統的に訓練されたLTNのパフォーマンスを満たすか、超えるかを示す。
RWTNは、学習に少ないパラメータを使用しながら、オブジェクト分類においてLTNと同等のパフォーマンスを達成できることを実証する。
論文 参考訳(メタデータ) (2020-06-01T19:36:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。