論文の概要: Quantum Annealing Algorithms for Boolean Tensor Networks
- arxiv url: http://arxiv.org/abs/2107.13659v4
- Date: Mon, 28 Mar 2022 02:47:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 16:43:57.696914
- Title: Quantum Annealing Algorithms for Boolean Tensor Networks
- Title(参考訳): ブールテンソルネットワークのための量子アニーリングアルゴリズム
- Authors: Elijah Pelofske, Georg Hahn, Daniel O'Malley, Hristo N. Djidjev, Boian
S. Alexandrov
- Abstract要約: ブールテンソルネットワークのための3つの一般アルゴリズムを導入・解析する。
量子アニーラー上での解法に適した2次非制約二元最適化問題として表すことができる。
我々は、DWave 2000Q量子アニールを用いて、最大数百万個の要素を持つテンソルを効率的に分解できることを実証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum annealers manufactured by D-Wave Systems, Inc., are computational
devices capable of finding high-quality solutions of NP-hard problems. In this
contribution, we explore the potential and effectiveness of such quantum
annealers for computing Boolean tensor networks. Tensors offer a natural way to
model high-dimensional data commonplace in many scientific fields, and
representing a binary tensor as a Boolean tensor network is the task of
expressing a tensor containing categorical (i.e., {0, 1}) values as a product
of low dimensional binary tensors. A Boolean tensor network is computed by
Boolean tensor decomposition, and it is usually not exact. The aim of such
decomposition is to minimize the given distance measure between the
high-dimensional input tensor and the product of lower-dimensional (usually
three-dimensional) tensors and matrices representing the tensor network. In
this paper, we introduce and analyze three general algorithms for Boolean
tensor networks: Tucker, Tensor Train, and Hierarchical Tucker networks. The
computation of a Boolean tensor network is reduced to a sequence of Boolean
matrix factorizations, which we show can be expressed as a quadratic
unconstrained binary optimization problem suitable for solving on a quantum
annealer. By using a novel method we introduce called \textit{parallel quantum
annealing}, we demonstrate that tensor with up to millions of elements can be
decomposed efficiently using a DWave 2000Q quantum annealer.
- Abstract(参考訳): D-Wave Systems, Inc. によって製造された量子アニールは、NPハード問題の高品質な解を見つけることができる計算装置である。
本稿では,ブールテンソルネットワークの計算における量子アニールの可能性と有効性について検討する。
テンソルは、多くの科学分野に共通する高次元データをモデル化する自然な方法を提供し、二進テンソルをブールテンソルネットワークとして表現することは、低次元二進テンソルの積としてカテゴリ(すなわち {0, 1})値を含むテンソルを表現するタスクである。
ブールテンソルネットワークはブールテンソル分解によって計算され、通常は正確ではない。
そのような分解の目的は、高次元入力テンソルと低次元(通常3次元)テンソルとテンソルネットワークを表す行列の積の間の与えられた距離測度を最小化することである。
本稿では, ブールテンソルネットワーク(Tucker, Tensor Train, Hierarchical Tucker Network)の3つの一般的なアルゴリズムを紹介し, 解析する。
ブールテンソルネットワークの計算はブール行列因数分解の列に還元され、量子アニール上での解法に適した2次非制約二乗最適化問題として表されることを示す。
提案手法である \textit{parallel quantum annealing} を用いて,dwave 2000q量子アニーラを用いて,数百万要素までのテンソルを効率的に分解できることを実証する。
関連論文リスト
- Positive bias makes tensor-network contraction tractable [0.5437298646956507]
テンソルネットワークの収縮は、量子多体物理学、量子情報、量子化学において強力な計算ツールである。
ここでは、テンソル-ネットワークの収縮の複雑さが、量子性、すなわちそのエントリの符号構造の違いにどのように依存するかを研究する。
論文 参考訳(メタデータ) (2024-10-07T18:27:23Z) - Compressing multivariate functions with tree tensor networks [0.0]
1次元テンソルネットワークは、連続関数の数値アンザッツとしてますます利用されている。
構造木テンソルネットワークが、一般的に使用されるテンソルトレインよりもはるかに効率的なアンザッツを提供することを示す。
論文 参考訳(メタデータ) (2024-10-04T16:20:52Z) - Quick design of feasible tensor networks for constrained combinatorial optimization [1.8775413720750924]
近年,実用化のための制約付き最適化問題に対して,テンソルネットワークが適用されている。
1つのアプローチは、nilpotent-matrix操作でテンソルネットワークを構築することである。
提案手法は,制約付き最適化問題に対する実現可能なテンソルネットワークの発見を容易にすることが期待されている。
論文 参考訳(メタデータ) (2024-09-03T08:36:23Z) - Tensor cumulants for statistical inference on invariant distributions [49.80012009682584]
我々は,PCAが信号の大きさの臨界値で計算的に困難になることを示す。
我々は、与えられた次数の不変量に対して明示的でほぼ直交的な基底を与える新しい対象の集合を定義する。
また、異なるアンサンブルを区別する新しい問題も分析できます。
論文 参考訳(メタデータ) (2024-04-29T14:33:24Z) - Low-Rank Tensor Function Representation for Multi-Dimensional Data
Recovery [52.21846313876592]
低ランクテンソル関数表現(LRTFR)は、無限解像度でメッシュグリッドを超えてデータを連続的に表現することができる。
テンソル関数に対する2つの基本的な概念、すなわちテンソル関数ランクとローランクテンソル関数分解を開発する。
提案手法は,最先端手法と比較して,提案手法の優越性と汎用性を裏付けるものである。
論文 参考訳(メタデータ) (2022-12-01T04:00:38Z) - Latent Matrices for Tensor Network Decomposition and to Tensor
Completion [8.301418317685906]
テンソルを小さく分解し,アルゴリズムの計算を高速化する新しい高階テンソル分解モデルを提案する。
LMTN-PAM, LMTN-SVD, LMTN-ARの3つの最適化アルゴリズムを開発し, テンソル補完タスクに適用した。
実験の結果, LMTN-SVDアルゴリズムはFCTN-PAMアルゴリズムの3~6倍高速であり, 1.8ポイントの精度低下しか得られなかった。
論文 参考訳(メタデータ) (2022-10-07T08:19:50Z) - Error Analysis of Tensor-Train Cross Approximation [88.83467216606778]
我々は, テンソル全体の精度保証を行う。
結果は数値実験により検証され、高次テンソルに対するクロス近似の有用性に重要な意味を持つ可能性がある。
論文 参考訳(メタデータ) (2022-07-09T19:33:59Z) - Boolean Hierarchical Tucker Networks on Quantum Annealers [0.0]
D-Wave Systems, Inc. の量子異方体の性能について検討する。
D-Wave 2000Q量子アニールに適した最適化問題列としてBHTNを計算可能であることを示す。
現在の技術は、それらが対処できる問題にはまだかなり制限されているが、BHTNのような複雑な問題を効率的かつ正確に解決できることが示されている。
論文 参考訳(メタデータ) (2021-03-12T16:45:58Z) - SiMaN: Sign-to-Magnitude Network Binarization [165.5630656849309]
重みバイナライゼーションは、高倍率重みを+1s、0sに符号化することで分析ソリューションを提供する。
二元化ネットワークの学習重みは、エントロピーを許さないラプラシアン分布に概ね従うことが証明される。
CIFAR-10 と ImageNet を用いて,シマナライゼーション (SiMaN) と呼ばれる手法の評価を行った。
論文 参考訳(メタデータ) (2021-02-16T07:03:51Z) - Connecting Weighted Automata, Tensor Networks and Recurrent Neural
Networks through Spectral Learning [58.14930566993063]
我々は、形式言語と言語学からの重み付き有限オートマトン(WFA)、機械学習で使用されるリカレントニューラルネットワーク、テンソルネットワークの3つのモデル間の接続を提示する。
本稿では,連続ベクトル入力の列上に定義された線形2-RNNに対する最初の証明可能な学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-19T15:28:00Z) - T-Basis: a Compact Representation for Neural Networks [89.86997385827055]
テンソルの集合をコンパクトに表現するための概念である T-Basis をニューラルネットワークでよく見られる任意の形状で導入する。
ニューラルネットワーク圧縮の課題に対する提案手法の評価を行い, 許容性能低下時に高い圧縮速度に達することを示す。
論文 参考訳(メタデータ) (2020-07-13T19:03:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。