論文の概要: Data reconstruction based on quantum neural networks
- arxiv url: http://arxiv.org/abs/2209.05711v2
- Date: Fri, 30 Sep 2022 02:21:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-26 19:39:45.177549
- Title: Data reconstruction based on quantum neural networks
- Title(参考訳): 量子ニューラルネットワークに基づくデータ再構成
- Authors: Ming-Ming Wang and Yi-Da Jiang
- Abstract要約: 量子ニューラルネットワーク(QNN)と量子オートエンコーダ(QAE)に基づくデータ再構成のための2つのフレームワークを提案する。
その結果,QNNとQAEはデータ再構成に有効であることがわかった。
- 参考スコア(独自算出の注目度): 0.456877715768796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reconstruction of large-sized data from small-sized ones is an important
problem in information science, and a typical example is the image
super-resolution reconstruction in computer vision. Combining machine learning
and quantum computing, quantum machine learning has shown the ability to
accelerate data processing and provides new methods for information processing.
In this paper, we propose two frameworks for data reconstruction based on
quantum neural networks (QNNs) and quantum autoencoder (QAE). The effects of
the two frameworks are evaluated by using the MNIST handwritten digits as
datasets. Simulation results show that QNNs and QAE can work well for data
reconstruction. We also compare our results with classical super-resolution
neural networks, and the results of one QNN are very close to classical ones.
- Abstract(参考訳): 小型データからの大規模データの再構成は情報科学において重要な問題であり、典型例はコンピュータビジョンにおける画像超解像再構成である。
機械学習と量子コンピューティングを組み合わせることで、量子機械学習はデータ処理を加速する能力を示し、情報処理のための新しい方法を提供する。
本稿では,量子ニューラルネットワーク(QNN)と量子オートエンコーダ(QAE)に基づく2つのデータ再構成フレームワークを提案する。
2つのフレームワークの効果をmnist手書きの数字をデータセットとして評価する。
シミュレーションの結果,QNNとQAEはデータ再構成に有効であることがわかった。
また、この結果と古典的超解像ニューラルネットワークを比較し、あるQNNの結果は古典的ニューラルネットワークに非常に近い。
関連論文リスト
- Learnability of a hybrid quantum-classical neural network for graph-structured quantum data [0.0]
グラフ構造化量子データを用いた深層学習(Res-HQCNN)を用いたハイブリッド量子古典ニューラルネットワークを構築した。
量子データにおけるグラフ構造に関する情報の利用により,最先端モデルと比較して学習効率が向上することを示す。
論文 参考訳(メタデータ) (2024-01-28T14:06:06Z) - ShadowNet for Data-Centric Quantum System Learning [188.683909185536]
本稿では,ニューラルネットワークプロトコルと古典的シャドウの強みを組み合わせたデータ中心学習パラダイムを提案する。
ニューラルネットワークの一般化力に基づいて、このパラダイムはオフラインでトレーニングされ、これまで目に見えないシステムを予測できる。
量子状態トモグラフィーおよび直接忠実度推定タスクにおいて、我々のパラダイムのインスタンス化を示し、60量子ビットまでの数値解析を行う。
論文 参考訳(メタデータ) (2023-08-22T09:11:53Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Quantum-inspired Complex Convolutional Neural Networks [17.65730040410185]
我々は、より豊かな表現能力とより良い非線形性を持つ複素数値重みを利用することにより、量子刺激ニューロンを改善した。
我々は、高次元データを処理できる量子インスパイアされた畳み込みニューラルネットワーク(QICNN)のモデルを描く。
5つのQICNNの分類精度をMNISTとCIFAR-10データセットで検証した。
論文 参考訳(メタデータ) (2021-10-31T03:10:48Z) - Dive into Layers: Neural Network Capacity Bounding using Algebraic
Geometry [55.57953219617467]
ニューラルネットワークの学習性はそのサイズと直接関連していることを示す。
入力データとニューラルネットワークのトポロジ的幾何学的複雑さを測定するためにベッチ数を用いる。
実世界のデータセットMNISTで実験を行い、分析結果と結論を検証した。
論文 参考訳(メタデータ) (2021-09-03T11:45:51Z) - Comparing concepts of quantum and classical neural network models for
image classification task [0.456877715768796]
本資料は、ハイブリッド量子古典ニューラルネットワークのトレーニングと性能に関する実験結果を含む。
シミュレーションは時間を要するが、量子ネットワークは時間を要するが、古典的なネットワークを克服する。
論文 参考訳(メタデータ) (2021-08-19T18:49:30Z) - A Quantum Convolutional Neural Network for Image Classification [7.745213180689952]
量子畳み込みニューラルネットワーク(QCNN)という新しいニューラルネットワークモデルを提案する。
QCNNは実装可能な量子回路に基づいており、古典的畳み込みニューラルネットワークと同様の構造を持つ。
MNISTデータセットの数値シミュレーションにより,本モデルの有効性が示された。
論文 参考訳(メタデータ) (2021-07-08T06:47:34Z) - The dilemma of quantum neural networks [63.82713636522488]
量子ニューラルネットワーク(QNN)は、古典的な学習モデルに対して何の恩恵も与えないことを示す。
QNNは、現実世界のデータセットの一般化が不十分な、極めて限られた有効モデル能力に悩まされている。
これらの結果から、現在のQNNの役割を再考し、量子的優位性で現実の問題を解決するための新しいプロトコルを設計せざるを得ない。
論文 参考訳(メタデータ) (2021-06-09T10:41:47Z) - Quantum Federated Learning with Quantum Data [87.49715898878858]
量子機械学習(QML)は、量子コンピューティングの発展に頼って、大規模な複雑な機械学習問題を探求する、有望な分野として登場した。
本稿では、量子データ上で動作し、量子回路パラメータの学習を分散的に共有できる初めての完全量子連合学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-30T12:19:27Z) - Quantum neural networks with deep residual learning [29.929891641757273]
本稿では,深層残留学習(resqnn)を用いた新しい量子ニューラルネットワークを提案する。
ResQNNは未知のユニタリを学び、驚くべきパフォーマンスを得ることができます。
論文 参考訳(メタデータ) (2020-12-14T18:11:07Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。