論文の概要: Quantum weight enumerators and tensor networks
- arxiv url: http://arxiv.org/abs/2211.02756v1
- Date: Fri, 4 Nov 2022 21:41:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-20 08:49:29.364482
- Title: Quantum weight enumerators and tensor networks
- Title(参考訳): 量子量列挙器とテンソルネットワーク
- Authors: ChunJun Cao and Brad Lackey
- Abstract要約: 量子量列挙子の概念をいわゆるテンソル列挙子に拡張する。
テンソルネットワーク上のトレース演算はテンソル列挙子上のトレース演算と互換性があることを証明する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We examine the use of weight enumerators for analyzing tensor network
constructions, and specifically the quantum lego framework recently introduced.
We extend the notion of quantum weight enumerators to so-called tensor
enumerators, and prove that the trace operation on tensor networks is
compatible with a trace operation on tensor enumerators. This allows us to
compute quantum weight enumerators of larger codes such as the ones constructed
through tensor network methods more efficiently. We also provide an analogue of
the MacWilliams identity for tensor enumerators.
- Abstract(参考訳): 本稿では,テンソルネットワーク構造の解析における重み付き列挙子の利用,特に最近導入された量子レゴフレームワークについて検討する。
量子重み列挙子の概念をいわゆるテンソル列挙子に拡張し、テンソルネットワーク上のトレース演算がテンソル列挙子上のトレース演算と互換性があることを証明する。
これにより、テンソルネットワークメソッドによって構築されたような大きな符号の量子量列挙子をより効率的に計算することができる。
また、テンソル列挙子に対するMacWilliams恒等式の類似も提供する。
関連論文リスト
- One-step replica symmetry breaking in the language of tensor networks [0.913755431537592]
我々は1段階のレプリカ対称性破断空洞法とテンソルネットワークの正確なマッピングを開発する。
この2つのスキームは補足的な数学的および数値的なツールボックスを備えており、芸術のそれぞれの状態を改善するために利用することができる。
論文 参考訳(メタデータ) (2023-06-26T18:42:51Z) - TensorKrowch: Smooth integration of tensor networks in machine learning [68.8204255655161]
PyTorch上に構築されたオープンソースのPythonライブラリであるKrowchを紹介します。
ユーザは任意のテンソルネットワークを構築してトレーニングし、より複雑なディープラーニングモデルにレイヤとして統合することができる。
論文 参考訳(メタデータ) (2023-06-14T15:55:19Z) - MultiQuant: A Novel Multi-Branch Topology Method for Arbitrary Bit-width
Network Quantization [64.9617631724811]
MultiQuantは任意のビット幅量子化にマルチブランチトポロジーを利用する新しい手法である。
軽量ビット幅の切り替えを回避しつつ、計算コストを同じように維持する。
大規模な実験により、MultiQuantは既存の任意のビット幅量子化法と比較して大きな性能向上を達成した。
論文 参考訳(メタデータ) (2023-05-14T10:17:09Z) - Noisy Quantum Kernel Machines [58.09028887465797]
量子学習マシンの新たなクラスは、量子カーネルのパラダイムに基づくものである。
消散と脱コヒーレンスがパフォーマンスに与える影響について検討する。
量子カーネルマシンでは,デコヒーレンスや散逸を暗黙の正規化とみなすことができる。
論文 参考訳(メタデータ) (2022-04-26T09:52:02Z) - Stack operation of tensor networks [10.86105335102537]
本稿では,テンソルネットワークスタックアプローチに対する数学的に厳密な定義を提案する。
本稿では、行列製品状態に基づく機械学習を例として、主なアイデアを例に挙げる。
論文 参考訳(メタデータ) (2022-03-28T12:45:13Z) - RosneT: A Block Tensor Algebra Library for Out-of-Core Quantum Computing
Simulation [0.18472148461613155]
本稿では,分散ブロックテンソル代数のためのライブラリRosneTを提案する。
我々はPyCOMPSsプログラミングモデルを用いてテンソル演算をComposランタイムが処理するタスクの集合に変換する。
本稿では, 最大53量子ビットの量子回路シミュレーションにおいて, 優れたスケーラビリティを示す手法を検証した。
論文 参考訳(メタデータ) (2022-01-17T20:35:40Z) - TensorLy-Quantum: Quantum Machine Learning with Tensor Methods [67.29221827422164]
PyTorch APIを採用した量子回路シミュレーションのためのPythonライブラリを作成します。
Ly-Quantumは、単一のGPU上で数百のキュービット、複数のGPU上で数千のキュービットにスケールすることができる。
論文 参考訳(メタデータ) (2021-12-19T19:26:17Z) - Tensor Networks for Simulating Quantum Circuits on FPGAs [0.0]
現在の量子コンピューティングのほとんどの研究は、真の量子コンピュータではなく、量子コンピュータのシミュレーションに対して行われている。
このようなシミュレーションを高速化する1つの方法は、フィールドプログラマブルゲートアレイ(FPGA)ハードウェアを使用して、行列乗算を効率的に計算することである。
量子コンピューティングシステムのメモリフットプリントを潜在的に削減する1つの方法は、テンソルネットワークとして表現することである。
論文 参考訳(メタデータ) (2021-08-15T22:43:38Z) - Quantum Annealing Algorithms for Boolean Tensor Networks [0.0]
ブールテンソルネットワークのための3つの一般アルゴリズムを導入・解析する。
量子アニーラー上での解法に適した2次非制約二元最適化問題として表すことができる。
我々は、DWave 2000Q量子アニールを用いて、最大数百万個の要素を持つテンソルを効率的に分解できることを実証した。
論文 参考訳(メタデータ) (2021-07-28T22:38:18Z) - Dimension of Tensor Network varieties [68.8204255655161]
テンソルネットワーク多様体の次元上の上限を決定する。
洗練された上界は、行列積状態の多様体や射影絡み合ったペア状態のような応用に関係している場合に与えられる。
論文 参考訳(メタデータ) (2021-01-08T18:24:50Z) - T-Basis: a Compact Representation for Neural Networks [89.86997385827055]
テンソルの集合をコンパクトに表現するための概念である T-Basis をニューラルネットワークでよく見られる任意の形状で導入する。
ニューラルネットワーク圧縮の課題に対する提案手法の評価を行い, 許容性能低下時に高い圧縮速度に達することを示す。
論文 参考訳(メタデータ) (2020-07-13T19:03:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。