論文の概要: Decohering Tensor Network Quantum Machine Learning Models
- arxiv url: http://arxiv.org/abs/2209.01195v1
- Date: Fri, 2 Sep 2022 17:46:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-28 03:51:47.059513
- Title: Decohering Tensor Network Quantum Machine Learning Models
- Title(参考訳): テンソルネットワーク量子機械学習モデルのデシャリング
- Authors: Haoran Liao, Ian Convy, Zhibo Yang, K. Birgitta Whaley
- Abstract要約: 両モデルの分類性能に対するデコヒーレンスとアンシラの追加の競合について検討する。
2つのアンシラを持つ完全デコヒートユニタリツリーテンソルネットワーク(TTN)が,少なくとも非デコヒートユニタリTTNと同様に機能することを示す。
- 参考スコア(独自算出の注目度): 6.312362367148171
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tensor network quantum machine learning (QML) models are promising
applications on near-term quantum hardware. While decoherence of qubits is
expected to decrease the performance of QML models, it is unclear to what
extent the diminished performance can be compensated for by adding ancillas to
the models and accordingly increasing the virtual bond dimension of the models.
We investigate here the competition between decoherence and adding ancillas on
the classification performance of two models, with an analysis of the
decoherence effect from the perspective of regression. We present numerical
evidence that the fully-decohered unitary tree tensor network (TTN) with two
ancillas performs at least as well as the non-decohered unitary TTN, suggesting
that it is beneficial to add at least two ancillas to the unitary TTN
regardless of the amount of decoherence may be consequently introduced.
- Abstract(参考訳): テンソルネットワーク量子機械学習(QML)モデルは、短期量子ハードウェアにおける有望な応用である。
量子ビットのデコヒーレンスはqmlモデルの性能を低下させることが期待されているが、モデルにアンシラスを追加してモデルの仮想結合次元を増加させることで、どの程度性能を低下させるかは明らかではない。
ここでは2つのモデルの分類性能に対するデコヒーレンスとアンシラの競合について検討し、回帰の観点からデコヒーレンス効果の分析を行った。
2つのアンシラを持つ完全デコヒーレント・ユニタリ・ツリー・テンソル・ネットワーク(TTN)が少なくとも非デコヒーレント・ユニタリ・TTNと同様に機能することを示す数値的な証拠を提示し、結果として、デコヒーレンス量に関係なく少なくとも2つのアンシラをユニタリ・TTNに追加することは有益であることを示す。
関連論文リスト
- Quantum-Train with Tensor Network Mapping Model and Distributed Circuit Ansatz [0.8192907805418583]
量子トレイン(Quantum-Train、QT)は、量子古典機械学習のハイブリッドフレームワークである。
量子状態の測定を古典的なニューラルネットワークの重みにマッピングする。
従来のQTフレームワークでは、このタスクにマルチレイヤパーセプトロン(MLP)を採用しているが、スケーラビリティと解釈可能性に苦慮している。
複数の小さな量子処理ユニットノードを持つ大規模量子機械学習用に設計された分散回路アンサッツを提案する。
論文 参考訳(メタデータ) (2024-09-11T03:51:34Z) - Quantum-Train: Rethinking Hybrid Quantum-Classical Machine Learning in the Model Compression Perspective [7.7063925534143705]
本稿では,量子コンピューティングと機械学習アルゴリズムを統合する新しいアプローチであるQuantum-Train(QT)フレームワークを紹介する。
QTは、古典的なマッピングモデルと並んで量子ニューラルネットワークを利用することで、顕著な結果を得る。
論文 参考訳(メタデータ) (2024-05-18T14:35:57Z) - Towards Efficient Quantum Hybrid Diffusion Models [68.43405413443175]
本稿では,量子ハイブリッド拡散モデルの設計手法を提案する。
量子コンピューティングの優れた一般化と古典的ネットワークのモジュラリティを組み合わせた2つのハイブリダイゼーション手法を提案する。
論文 参考訳(メタデータ) (2024-02-25T16:57:51Z) - Coherent Feed Forward Quantum Neural Network [2.1178416840822027]
量子ニューラルネットワーク(QNN)に焦点をあてた量子機械学習は、いまだに膨大な研究分野である。
適応可能な中間層とノードの観点から,従来のFFNNの汎用性とシームレスに整合するボナフェイドQNNモデルを提案する。
本研究では,診断乳がん(Wisconsin)やクレジットカード不正検出データセットなど,さまざまなベンチマークデータセットを用いて提案モデルを検証した。
論文 参考訳(メタデータ) (2024-02-01T15:13:26Z) - Approximately Equivariant Quantum Neural Network for $p4m$ Group
Symmetries in Images [30.01160824817612]
本研究では、平面$p4m$対称性に基づく画像分類のための同変量子畳み込みニューラルネットワーク(EquivQCNNs)を提案する。
2次元イジングモデルの位相検出や拡張MNISTデータセットの分類など、さまざまなユースケースでテストされた結果を示す。
論文 参考訳(メタデータ) (2023-10-03T18:01:02Z) - Pre-training Tensor-Train Networks Facilitates Machine Learning with Variational Quantum Circuits [70.97518416003358]
変分量子回路(VQC)は、ノイズの多い中間スケール量子(NISQ)デバイス上での量子機械学習を約束する。
テンソルトレインネットワーク(TTN)はVQC表現と一般化を向上させることができるが、結果として得られるハイブリッドモデルであるTTN-VQCは、Polyak-Lojasiewicz(PL)条件による最適化の課題に直面している。
この課題を軽減するために,プレトレーニングTTNモデルとVQCを組み合わせたPre+TTN-VQCを導入する。
論文 参考訳(メタデータ) (2023-05-18T03:08:18Z) - Towards Neural Variational Monte Carlo That Scales Linearly with System
Size [67.09349921751341]
量子多体問題(Quantum many-body problem)は、例えば高温超伝導体のようなエキゾチックな量子現象をデミストする中心である。
量子状態を表すニューラルネットワーク(NN)と変分モンテカルロ(VMC)アルゴリズムの組み合わせは、そのような問題を解決する上で有望な方法であることが示されている。
ベクトル量子化技術を用いて,VMCアルゴリズムの局所エネルギー計算における冗長性を利用するNNアーキテクチャVector-Quantized Neural Quantum States (VQ-NQS)を提案する。
論文 参考訳(メタデータ) (2022-12-21T19:00:04Z) - Vertical Layering of Quantized Neural Networks for Heterogeneous
Inference [57.42762335081385]
量子化モデル全体を1つのモデルにカプセル化するための,ニューラルネットワーク重みの新しい垂直層表現について検討する。
理論的には、1つのモデルのトレーニングとメンテナンスのみを必要としながら、オンデマンドサービスの正確なネットワークを達成できます。
論文 参考訳(メタデータ) (2022-12-10T15:57:38Z) - MoEfication: Conditional Computation of Transformer Models for Efficient
Inference [66.56994436947441]
トランスフォーマーベースの事前学習言語モデルは、パラメータ容量が大きいため、ほとんどのNLPタスクにおいて優れた性能を実現することができるが、計算コストも大きい。
スパースアクティベーション現象に基づく条件計算により,大規模モデル推論を高速化する。
そこで本研究では,モデルサイズが等しいMoE(Mix-of-experts)バージョン,すなわちMoEficationに変換することを提案する。
論文 参考訳(メタデータ) (2021-10-05T02:14:38Z) - Compact representations of convolutional neural networks via weight
pruning and quantization [63.417651529192014]
本稿では、音源符号化に基づく畳み込みニューラルネットワーク(CNN)の新しいストレージフォーマットを提案し、重み付けと量子化の両方を活用する。
我々は、全接続層で0.6%、ネットワーク全体で5.44%のスペース占有率を削減し、最低でもベースラインと同じくらいの競争力を発揮する。
論文 参考訳(メタデータ) (2021-08-28T20:39:54Z) - A universal duplication-free quantum neural network [0.8399688944263843]
複数の状態複製を必要としない新しいQNNモデルを提案する。
我々のモデルでは、量子ビットが大幅に少なくなり、精度と相対誤差の点で他の2つよりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-06-24T17:45:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。