論文の概要: Quantum Annealing Algorithms for Boolean Tensor Networks
- arxiv url: http://arxiv.org/abs/2107.13659v4
- Date: Mon, 28 Mar 2022 02:47:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 16:43:57.696914
- Title: Quantum Annealing Algorithms for Boolean Tensor Networks
- Title(参考訳): ブールテンソルネットワークのための量子アニーリングアルゴリズム
- Authors: Elijah Pelofske, Georg Hahn, Daniel O'Malley, Hristo N. Djidjev, Boian
S. Alexandrov
- Abstract要約: ブールテンソルネットワークのための3つの一般アルゴリズムを導入・解析する。
量子アニーラー上での解法に適した2次非制約二元最適化問題として表すことができる。
我々は、DWave 2000Q量子アニールを用いて、最大数百万個の要素を持つテンソルを効率的に分解できることを実証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum annealers manufactured by D-Wave Systems, Inc., are computational
devices capable of finding high-quality solutions of NP-hard problems. In this
contribution, we explore the potential and effectiveness of such quantum
annealers for computing Boolean tensor networks. Tensors offer a natural way to
model high-dimensional data commonplace in many scientific fields, and
representing a binary tensor as a Boolean tensor network is the task of
expressing a tensor containing categorical (i.e., {0, 1}) values as a product
of low dimensional binary tensors. A Boolean tensor network is computed by
Boolean tensor decomposition, and it is usually not exact. The aim of such
decomposition is to minimize the given distance measure between the
high-dimensional input tensor and the product of lower-dimensional (usually
three-dimensional) tensors and matrices representing the tensor network. In
this paper, we introduce and analyze three general algorithms for Boolean
tensor networks: Tucker, Tensor Train, and Hierarchical Tucker networks. The
computation of a Boolean tensor network is reduced to a sequence of Boolean
matrix factorizations, which we show can be expressed as a quadratic
unconstrained binary optimization problem suitable for solving on a quantum
annealer. By using a novel method we introduce called \textit{parallel quantum
annealing}, we demonstrate that tensor with up to millions of elements can be
decomposed efficiently using a DWave 2000Q quantum annealer.
- Abstract(参考訳): D-Wave Systems, Inc. によって製造された量子アニールは、NPハード問題の高品質な解を見つけることができる計算装置である。
本稿では,ブールテンソルネットワークの計算における量子アニールの可能性と有効性について検討する。
テンソルは、多くの科学分野に共通する高次元データをモデル化する自然な方法を提供し、二進テンソルをブールテンソルネットワークとして表現することは、低次元二進テンソルの積としてカテゴリ(すなわち {0, 1})値を含むテンソルを表現するタスクである。
ブールテンソルネットワークはブールテンソル分解によって計算され、通常は正確ではない。
そのような分解の目的は、高次元入力テンソルと低次元(通常3次元)テンソルとテンソルネットワークを表す行列の積の間の与えられた距離測度を最小化することである。
本稿では, ブールテンソルネットワーク(Tucker, Tensor Train, Hierarchical Tucker Network)の3つの一般的なアルゴリズムを紹介し, 解析する。
ブールテンソルネットワークの計算はブール行列因数分解の列に還元され、量子アニール上での解法に適した2次非制約二乗最適化問題として表されることを示す。
提案手法である \textit{parallel quantum annealing} を用いて,dwave 2000q量子アニーラを用いて,数百万要素までのテンソルを効率的に分解できることを実証する。
関連論文リスト
- Low-Rank Tensor Function Representation for Multi-Dimensional Data
Recovery [52.21846313876592]
低ランクテンソル関数表現(LRTFR)は、無限解像度でメッシュグリッドを超えてデータを連続的に表現することができる。
テンソル関数に対する2つの基本的な概念、すなわちテンソル関数ランクとローランクテンソル関数分解を開発する。
提案手法は,最先端手法と比較して,提案手法の優越性と汎用性を裏付けるものである。
論文 参考訳(メタデータ) (2022-12-01T04:00:38Z) - Latent Matrices for Tensor Network Decomposition and to Tensor
Completion [8.301418317685906]
テンソルを小さく分解し,アルゴリズムの計算を高速化する新しい高階テンソル分解モデルを提案する。
LMTN-PAM, LMTN-SVD, LMTN-ARの3つの最適化アルゴリズムを開発し, テンソル補完タスクに適用した。
実験の結果, LMTN-SVDアルゴリズムはFCTN-PAMアルゴリズムの3~6倍高速であり, 1.8ポイントの精度低下しか得られなかった。
論文 参考訳(メタデータ) (2022-10-07T08:19:50Z) - Error Analysis of Tensor-Train Cross Approximation [88.83467216606778]
我々は, テンソル全体の精度保証を行う。
結果は数値実験により検証され、高次テンソルに対するクロス近似の有用性に重要な意味を持つ可能性がある。
論文 参考訳(メタデータ) (2022-07-09T19:33:59Z) - Tensor networks in machine learning [0.0]
テンソルネットワーク(テンソルネットワーク)は、大規模なデータ配列を表現および近似するために用いられる分解である。
テンソルネットワークと機械学習の融合は自然である。
ここで、ネットワークパラメータを調整して、データセットを学習または分類する。
論文 参考訳(メタデータ) (2022-07-06T18:00:00Z) - Tensor Networks for Simulating Quantum Circuits on FPGAs [0.0]
現在の量子コンピューティングのほとんどの研究は、真の量子コンピュータではなく、量子コンピュータのシミュレーションに対して行われている。
このようなシミュレーションを高速化する1つの方法は、フィールドプログラマブルゲートアレイ(FPGA)ハードウェアを使用して、行列乗算を効率的に計算することである。
量子コンピューティングシステムのメモリフットプリントを潜在的に削減する1つの方法は、テンソルネットワークとして表現することである。
論文 参考訳(メタデータ) (2021-08-15T22:43:38Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Boolean Hierarchical Tucker Networks on Quantum Annealers [0.0]
D-Wave Systems, Inc. の量子異方体の性能について検討する。
D-Wave 2000Q量子アニールに適した最適化問題列としてBHTNを計算可能であることを示す。
現在の技術は、それらが対処できる問題にはまだかなり制限されているが、BHTNのような複雑な問題を効率的かつ正確に解決できることが示されている。
論文 参考訳(メタデータ) (2021-03-12T16:45:58Z) - SiMaN: Sign-to-Magnitude Network Binarization [165.5630656849309]
重みバイナライゼーションは、高倍率重みを+1s、0sに符号化することで分析ソリューションを提供する。
二元化ネットワークの学習重みは、エントロピーを許さないラプラシアン分布に概ね従うことが証明される。
CIFAR-10 と ImageNet を用いて,シマナライゼーション (SiMaN) と呼ばれる手法の評価を行った。
論文 参考訳(メタデータ) (2021-02-16T07:03:51Z) - Tensor-Train Networks for Learning Predictive Modeling of
Multidimensional Data [0.0]
有望な戦略は、物理的および化学的用途で非常に成功したテンソルネットワークに基づいています。
本研究では, 多次元回帰モデルの重みをテンソルネットワークを用いて学習し, 強力なコンパクト表現を実現することを示した。
TT形式の重みを計算力の低減で近似するための最小二乗を交互に行うアルゴリズムが提案されている。
論文 参考訳(メタデータ) (2021-01-22T16:14:38Z) - Connecting Weighted Automata, Tensor Networks and Recurrent Neural
Networks through Spectral Learning [58.14930566993063]
我々は、形式言語と言語学からの重み付き有限オートマトン(WFA)、機械学習で使用されるリカレントニューラルネットワーク、テンソルネットワークの3つのモデル間の接続を提示する。
本稿では,連続ベクトル入力の列上に定義された線形2-RNNに対する最初の証明可能な学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-19T15:28:00Z) - T-Basis: a Compact Representation for Neural Networks [89.86997385827055]
テンソルの集合をコンパクトに表現するための概念である T-Basis をニューラルネットワークでよく見られる任意の形状で導入する。
ニューラルネットワーク圧縮の課題に対する提案手法の評価を行い, 許容性能低下時に高い圧縮速度に達することを示す。
論文 参考訳(メタデータ) (2020-07-13T19:03:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。