論文の概要: Quantum weight enumerators and tensor networks
- arxiv url: http://arxiv.org/abs/2211.02756v2
- Date: Thu, 30 Mar 2023 15:37:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-31 17:52:17.035584
- Title: Quantum weight enumerators and tensor networks
- Title(参考訳): 量子量列挙器とテンソルネットワーク
- Authors: ChunJun Cao and Brad Lackey
- Abstract要約: テンソルネットワーク上のトレース演算はテンソル列挙子上のトレース演算と互換性があることを示す。
これにより、より大きな符号の量子量列挙子をより効率的に計算できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We examine the use of weight enumerators for analyzing tensor network
constructions, and specifically the quantum lego framework recently introduced.
We extend the notion of quantum weight enumerators to so-called tensor
enumerators, and prove that the trace operation on tensor networks is
compatible with a trace operation on tensor enumerators. This allows us to
compute quantum weight enumerators of larger codes such as the ones constructed
through tensor network methods more efficiently. We also provide a general
framework for quantum MacWilliams identities that includes tensor enumerators
as a special case.
- Abstract(参考訳): 本稿では,テンソルネットワーク構造の解析における重み付き列挙子の利用,特に最近導入された量子レゴフレームワークについて検討する。
量子重み列挙子の概念をいわゆるテンソル列挙子に拡張し、テンソルネットワーク上のトレース演算がテンソル列挙子上のトレース演算と互換性があることを証明する。
これにより、テンソルネットワークメソッドによって構築されたような大きな符号の量子量列挙子をより効率的に計算することができる。
また、特別な場合としてテンソル列挙子を含む量子macwilliams identityの一般的なフレームワークも提供する。
関連論文リスト
- Tensor Network Computations That Capture Strict Variationality, Volume Law Behavior, and the Efficient Representation of Neural Network States [0.6148049086034199]
本稿では,振幅の収縮の計算グラフによって定義されるテンソルネットワーク状態の視点変化を紹介する。
結果として得られる状態のクラスはテンソルネットワーク関数と呼ばれ、テンソルネットワーク状態の概念上の利点を継承し、近似された収縮を収束させる必要から生じる計算的制約を除去する。
テンソルネットワーク関数を用いて、ループグラフ上のエネルギーの厳密な変動推定を計算し、基底状態の表現力を解析し、体積法則の時間進化の側面を捉え、一般的なフィードフォワードニューラルネットワークの効率的なテンソルネットワーク関数へのマッピングを提供する。
論文 参考訳(メタデータ) (2024-05-06T19:04:13Z) - One-step replica symmetry breaking in the language of tensor networks [0.913755431537592]
我々は1段階のレプリカ対称性破断空洞法とテンソルネットワークの正確なマッピングを開発する。
この2つのスキームは補足的な数学的および数値的なツールボックスを備えており、芸術のそれぞれの状態を改善するために利用することができる。
論文 参考訳(メタデータ) (2023-06-26T18:42:51Z) - Noisy Quantum Kernel Machines [58.09028887465797]
量子学習マシンの新たなクラスは、量子カーネルのパラダイムに基づくものである。
消散と脱コヒーレンスがパフォーマンスに与える影響について検討する。
量子カーネルマシンでは,デコヒーレンスや散逸を暗黙の正規化とみなすことができる。
論文 参考訳(メタデータ) (2022-04-26T09:52:02Z) - Stack operation of tensor networks [10.86105335102537]
本稿では,テンソルネットワークスタックアプローチに対する数学的に厳密な定義を提案する。
本稿では、行列製品状態に基づく機械学習を例として、主なアイデアを例に挙げる。
論文 参考訳(メタデータ) (2022-03-28T12:45:13Z) - RosneT: A Block Tensor Algebra Library for Out-of-Core Quantum Computing
Simulation [0.18472148461613155]
本稿では,分散ブロックテンソル代数のためのライブラリRosneTを提案する。
我々はPyCOMPSsプログラミングモデルを用いてテンソル演算をComposランタイムが処理するタスクの集合に変換する。
本稿では, 最大53量子ビットの量子回路シミュレーションにおいて, 優れたスケーラビリティを示す手法を検証した。
論文 参考訳(メタデータ) (2022-01-17T20:35:40Z) - TensorLy-Quantum: Quantum Machine Learning with Tensor Methods [67.29221827422164]
PyTorch APIを採用した量子回路シミュレーションのためのPythonライブラリを作成します。
Ly-Quantumは、単一のGPU上で数百のキュービット、複数のGPU上で数千のキュービットにスケールすることができる。
論文 参考訳(メタデータ) (2021-12-19T19:26:17Z) - Quantum Annealing Algorithms for Boolean Tensor Networks [0.0]
ブールテンソルネットワークのための3つの一般アルゴリズムを導入・解析する。
量子アニーラー上での解法に適した2次非制約二元最適化問題として表すことができる。
我々は、DWave 2000Q量子アニールを用いて、最大数百万個の要素を持つテンソルを効率的に分解できることを実証した。
論文 参考訳(メタデータ) (2021-07-28T22:38:18Z) - Tensor Network Quantum Virtual Machine for Simulating Quantum Circuits
at Exascale [57.84751206630535]
本稿では,E-scale ACCelerator(XACC)フレームワークにおける量子回路シミュレーションバックエンドとして機能する量子仮想マシン(TNQVM)の近代化版を提案する。
新バージョンは汎用的でスケーラブルなネットワーク処理ライブラリであるExaTNをベースにしており、複数の量子回路シミュレータを提供している。
ポータブルなXACC量子プロセッサとスケーラブルなExaTNバックエンドを組み合わせることで、ラップトップから将来のエクサスケールプラットフォームにスケール可能なエンドツーエンドの仮想開発環境を導入します。
論文 参考訳(メタデータ) (2021-04-21T13:26:42Z) - Dimension of Tensor Network varieties [68.8204255655161]
テンソルネットワーク多様体の次元上の上限を決定する。
洗練された上界は、行列積状態の多様体や射影絡み合ったペア状態のような応用に関係している場合に与えられる。
論文 参考訳(メタデータ) (2021-01-08T18:24:50Z) - Efficient construction of tensor-network representations of many-body
Gaussian states [59.94347858883343]
本稿では,多体ガウス状態のテンソルネットワーク表現を効率よく,かつ制御可能な誤差で構築する手法を提案する。
これらの状態には、量子多体系の研究に欠かせないボゾン系およびフェルミオン系二次ハミルトン系の基底状態と熱状態が含まれる。
論文 参考訳(メタデータ) (2020-08-12T11:30:23Z) - T-Basis: a Compact Representation for Neural Networks [89.86997385827055]
テンソルの集合をコンパクトに表現するための概念である T-Basis をニューラルネットワークでよく見られる任意の形状で導入する。
ニューラルネットワーク圧縮の課題に対する提案手法の評価を行い, 許容性能低下時に高い圧縮速度に達することを示す。
論文 参考訳(メタデータ) (2020-07-13T19:03:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。