論文の概要: Block-Encoding Tensor Networks and QUBO Embeddings
- arxiv url: http://arxiv.org/abs/2510.00935v1
- Date: Wed, 01 Oct 2025 14:15:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 21:54:12.805728
- Title: Block-Encoding Tensor Networks and QUBO Embeddings
- Title(参考訳): ブロックエンコードテンソルネットワークとQUBO埋め込み
- Authors: Sebastian Issel,
- Abstract要約: 我々は,任意のテンソルネットワーク(TN)を局所ユニタリ列に変換するアルゴリズムを提案する。
構成は各TNを局所等距離として埋め込み、それをユニタリに拡張する。
我々は、形式文、擬符号、資源公式、および一般量子作用素の状態準備と学習への利用に関する議論を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We give an algorithm that converts any tensor network (TN) into a sequence of local unitaries whose composition block-encodes the network contraction, suitable for Quantum Eigenvalue / Singularvalue Transformation (QET/QSVT). The construction embeds each TN as a local isometry and dilates it to a unitary. Performing this step for every site of the tensor, allows the full network to be block-encoded. The theory is agnostic to virtual-bond sizes; for qubit resource counts and examples we assume global power-of-two padding. Further, we present a deterministic sweep that maps Quadratic Unconstrained Binary Optimization (QUBO) / Ising Hamiltonians into Matrix Product Operators (MPOs) and general TN. We provide formal statements, pseudo-code, resource formulae, and a discussion of the use for state preparation and learning of general quantum operators.
- Abstract(参考訳): 我々は、任意のテンソルネットワーク(TN)を、量子固有値/特異値変換(QET/QSVT)に適した、構成がネットワーク収縮を符号化する局所ユニタリのシーケンスに変換するアルゴリズムを提供する。
構成は各TNを局所等距離として埋め込み、それをユニタリに拡張する。
テンソルのすべてのサイトに対してこのステップを実行することで、完全なネットワークをブロックエンコードすることができる。
この理論は仮想結合のサイズに依存しない; 量子ビットの資源数や例では、グローバルな2つのパディングを仮定する。
さらに、二次非拘束バイナリ最適化 (QUBO) / Ising Hamiltonians を Matrix Product Operators (MPOs) および General TN にマッピングする決定論的スイープを提案する。
本稿では,形式文,擬似符号,資源公式,一般量子演算子の状態準備と学習への利用について論じる。
関連論文リスト
- Simulating Quantum Circuits with Tree Tensor Networks using Density-Matrix Renormalization Group Algorithm [0.12744523252873352]
量子回路シミュレーションのための密度行列再正規化群(DMRG)アルゴリズムをツリーテンソルネットワーク(TTN)に拡張する。
ランダム回路では,TTNに適したツリー状ゲートレイアウトを考案し,TTNがMPSよりも少ないメモリを必要とすることを示す。
この結果から,TTNを用いたDMRGアルゴリズムは量子回路をシミュレーションする上で有望なフレームワークであることがわかった。
論文 参考訳(メタデータ) (2025-04-23T13:48:03Z) - Projected Stochastic Gradient Descent with Quantum Annealed Binary Gradients [51.82488018573326]
重み付きニューラルネットワークのトレーニングに適した,新しいレイヤワイドオプティマイザであるQP-SBGDを提案する。
BNNは、深層学習モデルの計算要求とエネルギー消費を最小限の精度で削減する。
提案アルゴリズムは階層的に実装されており,リソース制限量子ハードウェア上での大規模ネットワークのトレーニングに適している。
論文 参考訳(メタデータ) (2023-10-23T17:32:38Z) - The Bonsai algorithm: grow your own fermion-to-qubit mapping [0.7049738935364298]
三次木からのフレキシブルフェルミオン-量子写像を設計するための形式主義を提案する。
我々は、Fock基底状態が量子ビット空間の計算基底状態にマップされることを保証するレシピを導入する。
我々は,IBM量子コンピュータで広く使われているヘキサゴナルトポロジのマッピングを作成することで,このアルゴリズムを説明する。
論文 参考訳(メタデータ) (2022-12-19T18:53:08Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Cluster-Promoting Quantization with Bit-Drop for Minimizing Network
Quantization Loss [61.26793005355441]
クラスタ・プロモーティング・量子化(CPQ)は、ニューラルネットワークに最適な量子化グリッドを見つける。
DropBitsは、ニューロンの代わりにランダムにビットをドロップする標準のドロップアウト正規化を改訂する新しいビットドロップ技術である。
本手法を様々なベンチマークデータセットとネットワークアーキテクチャ上で実験的に検証する。
論文 参考訳(メタデータ) (2021-09-05T15:15:07Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。