論文の概要: Generative Invertible Quantum Neural Networks
- arxiv url: http://arxiv.org/abs/2302.12906v3
- Date: Thu, 22 Feb 2024 15:55:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-23 19:22:25.867730
- Title: Generative Invertible Quantum Neural Networks
- Title(参考訳): 生成可能可逆量子ニューラルネットワーク
- Authors: Armand Rousselot and Michael Spannowsky
- Abstract要約: Invertible Neural Networks (INNs) は、高度に複雑なデータのシミュレーションと生成のための確立されたツールとなっている。
本稿では、量子可逆ニューラルネットワーク(QINN)のための量子ゲートアルゴリズムを提案し、レプトンに崩壊するZボソンのジェット関連生成のLHCデータに適用する。
ハイブリッドQINNは、複雑なデータの学習と生成において、かなり大きな純粋に古典的な INN の性能と一致することがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Invertible Neural Networks (INN) have become established tools for the
simulation and generation of highly complex data. We propose a quantum-gate
algorithm for a Quantum Invertible Neural Network (QINN) and apply it to the
LHC data of jet-associated production of a Z-boson that decays into leptons, a
standard candle process for particle collider precision measurements. We
compare the QINN's performance for different loss functions and training
scenarios. For this task, we find that a hybrid QINN matches the performance of
a significantly larger purely classical INN in learning and generating complex
data.
- Abstract(参考訳): Invertible Neural Networks (INN)は、高度に複雑なデータのシミュレーションと生成のためのツールとして確立されている。
本稿では,量子可逆ニューラルネットワーク(QINN)の量子ゲートアルゴリズムを提案し,これを粒子衝突精度測定の標準ろうそくプロセスであるレプトンに崩壊するZボソンのジェット関連生成のLHCデータに適用する。
異なる損失関数とトレーニングシナリオに対するQINNのパフォーマンスを比較した。
この課題に対して、ハイブリッドQINNは、より大規模な純粋に古典的な INN の性能と、複雑なデータの学習と生成において一致している。
関連論文リスト
- Fourier Neural Operators for Learning Dynamics in Quantum Spin Systems [77.88054335119074]
ランダム量子スピン系の進化をモデル化するためにFNOを用いる。
量子波動関数全体の2n$の代わりに、コンパクトなハミルトン観測可能集合にFNOを適用する。
論文 参考訳(メタデータ) (2024-09-05T07:18:09Z) - CTRQNets & LQNets: Continuous Time Recurrent and Liquid Quantum Neural Networks [76.53016529061821]
Liquid Quantum Neural Network (LQNet) とContinuous Time Recurrent Quantum Neural Network (CTRQNet) を開発した。
LQNetとCTRQNetは、バイナリ分類によってCIFAR 10で40%の精度向上を実現している。
論文 参考訳(メタデータ) (2024-08-28T00:56:03Z) - Studying the Impact of Quantum-Specific Hyperparameters on Hybrid Quantum-Classical Neural Networks [4.951980887762045]
ハイブリッド量子古典ニューラルネットワーク(HQNN)は、古典的な機械学習の強みと量子コンピューティング能力を組み合わせた、有望なソリューションである。
本稿では,PennyLaneフレームワーク上に実装された画像分類タスクのHQNNモデルに対して,これらのバリエーションが与える影響について検討する。
我々は,HQNNモデルの直感的および直感的学習パターンを制御された量子摂動の粒度レベル内で明らかにし,精度とトレーニング時間との相関関係の健全な基盤を構築することを目的としている。
論文 参考訳(メタデータ) (2024-02-16T11:44:25Z) - Quantum Neural Network for Quantum Neural Computing [0.0]
本稿では,量子ニューラルネットワークのための新しい量子ニューラルネットワークモデルを提案する。
我々のモデルは、状態空間のサイズがニューロンの数とともに指数関数的に大きくなるという問題を回避している。
我々は手書き文字認識や他の非線形分類タスクのモデルをベンチマークする。
論文 参考訳(メタデータ) (2023-05-15T11:16:47Z) - QuanGCN: Noise-Adaptive Training for Robust Quantum Graph Convolutional
Networks [124.7972093110732]
本稿では,ノード間の局所的なメッセージパッシングをクロスゲート量子演算のシーケンスで学習する量子グラフ畳み込みネットワーク(QuanGCN)を提案する。
現代の量子デバイスから固有のノイズを緩和するために、ノードの接続をスパーズするためにスパース制約を適用します。
我々のQuanGCNは、いくつかのベンチマークグラフデータセットの古典的なアルゴリズムよりも機能的に同等か、さらに優れている。
論文 参考訳(メタデータ) (2022-11-09T21:43:16Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - A Quantum Convolutional Neural Network for Image Classification [7.745213180689952]
量子畳み込みニューラルネットワーク(QCNN)という新しいニューラルネットワークモデルを提案する。
QCNNは実装可能な量子回路に基づいており、古典的畳み込みニューラルネットワークと同様の構造を持つ。
MNISTデータセットの数値シミュレーションにより,本モデルの有効性が示された。
論文 参考訳(メタデータ) (2021-07-08T06:47:34Z) - Branching Quantum Convolutional Neural Networks [0.0]
小型量子コンピュータは、大規模量子および非常に大規模な古典的データセット上での学習タスクにおいて、既に潜在的な増加を見せている。
本稿では、分岐量子畳み込みニューラルネットワークであるQCNN(bQCNN)を、かなり高い表現性で一般化する。
論文 参考訳(メタデータ) (2020-12-28T19:00:03Z) - Quantum neural networks with deep residual learning [29.929891641757273]
本稿では,深層残留学習(resqnn)を用いた新しい量子ニューラルネットワークを提案する。
ResQNNは未知のユニタリを学び、驚くべきパフォーマンスを得ることができます。
論文 参考訳(メタデータ) (2020-12-14T18:11:07Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。