論文の概要: Tensor Ring Optimized Quantum-Enhanced Tensor Neural Networks
- arxiv url: http://arxiv.org/abs/2310.01515v1
- Date: Mon, 2 Oct 2023 18:07:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 19:38:55.134939
- Title: Tensor Ring Optimized Quantum-Enhanced Tensor Neural Networks
- Title(参考訳): テンソルリング最適化量子強化テンソルニューラルネットワーク
- Authors: Debanjan Konar, Dheeraj Peddireddy, Vaneet Aggarwal and Bijaya K.
Panigrahi
- Abstract要約: 量子機械学習の研究者は、しばしばディープニューラルネットワーク(DNN)にネットワーク(TN)を組み込むことに頼っている。
この問題に対処するために、リング最適化変分量子学習分類器(Quan-TR)の多層設計を提案する。
リング最適化量子強化ニューラルネットワーク(TR-QNet)と呼ばれる。
量子シミュレーションにおいて、提案されたTR-QNetは、それぞれIris、MNIST、CIFAR-10データセット上で、9,4.5%、8,6.16%、および83.54%の有望な精度を達成している。
- 参考スコア(独自算出の注目度): 32.76948546010625
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantum machine learning researchers often rely on incorporating Tensor
Networks (TN) into Deep Neural Networks (DNN) and variational optimization.
However, the standard optimization techniques used for training the contracted
trainable weights of each model layer suffer from the correlations and
entanglement structure between the model parameters on classical
implementations. To address this issue, a multi-layer design of a Tensor Ring
optimized variational Quantum learning classifier (Quan-TR) comprising
cascading entangling gates replacing the fully connected (dense) layers of a TN
is proposed, and it is referred to as Tensor Ring optimized Quantum-enhanced
tensor neural Networks (TR-QNet). TR-QNet parameters are optimized through the
stochastic gradient descent algorithm on qubit measurements. The proposed
TR-QNet is assessed on three distinct datasets, namely Iris, MNIST, and
CIFAR-10, to demonstrate the enhanced precision achieved for binary
classification. On quantum simulations, the proposed TR-QNet achieves promising
accuracy of $94.5\%$, $86.16\%$, and $83.54\%$ on the Iris, MNIST, and CIFAR-10
datasets, respectively. Benchmark studies have been conducted on
state-of-the-art quantum and classical implementations of TN models to show the
efficacy of the proposed TR-QNet. Moreover, the scalability of TR-QNet
highlights its potential for exhibiting in deep learning applications on a
large scale. The PyTorch implementation of TR-QNet is available on
Github:https://github.com/konar1987/TR-QNet/
- Abstract(参考訳): 量子機械学習の研究者は、しばしば、Tensor Networks (TN)をDeep Neural Networks (DNN)と変分最適化に組み込むことに頼っている。
しかしながら、各モデル層の収縮訓練可能な重みをトレーニングするために使用される標準最適化技術は、古典的実装におけるモデルパラメータ間の相関と絡み合い構造に苦しむ。
この問題を解決するために、TNの完全連結(高密度)層を置き換えるカスケードエンタングゲートからなるテンソルリング最適化量子学習分類器(Quan-TR)の多層設計を提案し、テンソルリング最適化量子強化テンソルニューラルネットワーク(TR-QNet)と呼ぶ。
TR-QNetパラメータは、量子ビット測定における確率勾配降下アルゴリズムによって最適化される。
提案するtr-qnetは,iris,mnist,cifar-10の3つの異なるデータセットを用いて評価し,バイナリ分類精度の向上を実証した。
量子シミュレーションにおいて、提案されたTR-QNetは、それぞれIris、MNIST、CIFAR-10データセット上で、94.5\%$と86.16\%$と83.54\%の有望な精度を達成する。
TR-QNetの有効性を示すため、TNモデルの最先端量子および古典的な実装に関するベンチマーク研究が行われた。
さらに、TR-QNetのスケーラビリティは、大規模にディープラーニングアプリケーションを示す可能性を強調している。
TR-QNetのPyTorch実装はGithubで公開されている。
関連論文リスト
- Non-parametric Greedy Optimization of Parametric Quantum Circuits [2.77390041716769]
本研究の目的は、パラメトリックゲートを近似的に固定された非パラメトリック表現に置き換えることで、PQCの深さとゲート数を削減することである。
約14%の深さ減少と48%のゲート数減少を3.33%の精度で観測した。
論文 参考訳(メタデータ) (2024-01-27T15:29:38Z) - Variational Tensor Neural Networks for Deep Learning [0.0]
深部ニューラルネットワーク(NN)へのテンソルネットワーク(TN)の統合を提案する。
これにより、大きなパラメータ空間上で効率的にトレーニングできるスケーラブルなテンソルニューラルネットワーク(TNN)アーキテクチャが実現される。
我々はTNNモデルを設計し、線形および非線形回帰、データ分類、MNIST手書き桁の画像認識のためのベンチマーク結果を提供することにより、提案手法の精度と効率を検証した。
論文 参考訳(メタデータ) (2022-11-26T20:24:36Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Tensor Ring Parametrized Variational Quantum Circuits for Large Scale
Quantum Machine Learning [28.026962110693695]
本稿では,テンソルリング表現を用いて回路内の量子状態を圧縮するアルゴリズムを提案する。
ストレージと計算時間は、正確なシミュレーションアルゴリズムによる指数的な増加と比較して、キュービット数とレイヤー数で線形に増加する。
We achieve a test accuracy of 83.33% on Iris dataset and a maximum of 99.30% and 76.31% on binary and ternary classification of MNIST dataset。
論文 参考訳(メタデータ) (2022-01-21T19:54:57Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - A Fully Tensorized Recurrent Neural Network [48.50376453324581]
重み付けされたRNNアーキテクチャを導入し、各リカレントセル内の個別の重み付け行列を共同で符号化する。
このアプローチはモデルのサイズを数桁削減するが、通常のRNNと同等あるいは優れた性能を維持している。
論文 参考訳(メタデータ) (2020-10-08T18:24:12Z) - Propagating Asymptotic-Estimated Gradients for Low Bitwidth Quantized
Neural Networks [31.168156284218746]
本稿では,AQE(Asymptotic-Quantized Estimator)を提案する。
訓練の終わりに、重量とアクティベーションは低精度に定量化されている。
推論フェーズでは、畳み込み操作の代わりにXNORまたはShiFT操作を使用してMINW-Netを高速化する。
論文 参考訳(メタデータ) (2020-03-04T03:17:47Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z) - Training of Quantized Deep Neural Networks using a Magnetic Tunnel
Junction-Based Synapse [23.08163992580639]
深層ニューラルネットワークの計算複雑性とメモリ強度のソリューションとして、量子ニューラルネットワーク(QNN)が積極的に研究されている。
磁気トンネル接合(MTJ)デバイスがQNNトレーニングにどのように役立つかを示す。
本稿では,MTJ動作を用いた新しいシナプス回路を導入し,量子化更新をサポートする。
論文 参考訳(メタデータ) (2019-12-29T11:36:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。