論文の概要: Impact of Data Augmentation on QCNNs
- arxiv url: http://arxiv.org/abs/2312.00358v1
- Date: Fri, 1 Dec 2023 05:28:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-04 15:26:26.441419
- Title: Impact of Data Augmentation on QCNNs
- Title(参考訳): データ拡張がQCNNに与える影響
- Authors: Leting Zhouli, Peiyong Wang, Udaya Parampalli
- Abstract要約: 量子畳み込みニューラルネットワーク(QCNN)は,量子機構を用いてCNNの新たな一般化として提案される。
本稿では,CNN と QCNN を比較し,一般的に使用されている3つのデータセットの損失と予測精度をテストする。
- 参考スコア(独自算出の注目度): 1.1510009152620664
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, Classical Convolutional Neural Networks (CNNs) have been
applied for image recognition successfully. Quantum Convolutional Neural
Networks (QCNNs) are proposed as a novel generalization to CNNs by using
quantum mechanisms. The quantum mechanisms lead to an efficient training
process in QCNNs by reducing the size of input from $N$ to $log_2N$. This paper
implements and compares both CNNs and QCNNs by testing losses and prediction
accuracy on three commonly used datasets. The datasets include the MNIST
hand-written digits, Fashion MNIST and cat/dog face images. Additionally, data
augmentation (DA), a technique commonly used in CNNs to improve the performance
of classification by generating similar images based on original inputs, is
also implemented in QCNNs. Surprisingly, the results showed that data
augmentation didn't improve QCNNs performance. The reasons and logic behind
this result are discussed, hoping to expand our understanding of Quantum
machine learning theory.
- Abstract(参考訳): 近年,画像認識には古典的畳み込みニューラルネットワーク(CNN)が応用されている。
量子畳み込みニューラルネットワーク(QCNN)は,量子機構を用いてCNNの新たな一般化として提案される。
量子メカニズムは、入力のサイズを$N$から$log_2N$に下げることで、QCNNの効率的なトレーニングプロセスにつながる。
本稿では,CNN と QCNN を比較し,一般的に使用されている3つのデータセットの損失と予測精度をテストする。
データセットには、MNISTの手書き桁、Fashion MNIST、cat/dog顔画像が含まれる。
また、データ拡張(DA)は、CNNでよく使われている手法で、元の入力に基づいて類似した画像を生成することによって分類性能を向上させる。
驚くべきことに、データ拡張はQCNNのパフォーマンスを向上しなかった。
この結果の背景にある理由と論理を議論し、量子機械学習理論の理解を深めたいと考えている。
関連論文リスト
- CNN2GNN: How to Bridge CNN with GNN [59.42117676779735]
蒸留によりCNNとGNNを統一する新しいCNN2GNNフレームワークを提案する。
Mini-ImageNetにおける蒸留ブースターの2層GNNの性能は、ResNet152のような数十層を含むCNNよりもはるかに高い。
論文 参考訳(メタデータ) (2024-04-23T08:19:08Z) - Correlated Optical Convolutional Neural Network with Quantum Speedup [9.194748023567886]
相関した光畳み込みニューラルネットワーク(COCNN)は、トレーニングプロセスにおいて量子スピードアップを示すことができることを示す。
提案手法は,量子スピードアップでONNを実現するための新たな道を開く。
論文 参考訳(メタデータ) (2024-02-01T11:17:09Z) - A Quantum Convolutional Neural Network Approach for Object Detection and
Classification [0.0]
QCNNの時間と精度は、異なる条件下での古典的なCNNやANNモデルと比較される。
この分析により、QCNNは、特定のアプリケーションにおける精度と効率の点で、古典的なCNNとANNのモデルより優れている可能性が示されている。
論文 参考訳(メタデータ) (2023-07-17T02:38:04Z) - Predict better with less training data using a QNN [1.7481852615249125]
従来の画像データを量子状態に効率的にマッピングするクオン進化ニューラルネットワーク(QNN)アルゴリズムについて述べる。
我々は、優れたデータ符号化による利点がある産業アプリケーションに対して、真に量子的な優位性を実証的に観察する。
論文 参考訳(メタデータ) (2022-06-08T15:25:58Z) - Quantum convolutional neural network for classical data classification [0.8057006406834467]
古典データ分類のための完全パラメータ化量子畳み込みニューラルネットワーク(QCNN)をベンチマークする。
本稿では,CNNにインスパイアされた量子ニューラルネットワークモデルを提案する。
論文 参考訳(メタデータ) (2021-08-02T06:48:34Z) - The dilemma of quantum neural networks [63.82713636522488]
量子ニューラルネットワーク(QNN)は、古典的な学習モデルに対して何の恩恵も与えないことを示す。
QNNは、現実世界のデータセットの一般化が不十分な、極めて限られた有効モデル能力に悩まされている。
これらの結果から、現在のQNNの役割を再考し、量子的優位性で現実の問題を解決するための新しいプロトコルを設計せざるを得ない。
論文 参考訳(メタデータ) (2021-06-09T10:41:47Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - A Tutorial on Quantum Convolutional Neural Networks (QCNN) [11.79760591464748]
畳み込みニューラルネットワーク(CNN)はコンピュータビジョンにおいて一般的なモデルである。
CNNは、与えられたデータやモデルの次元が大きすぎる場合、効率的に学習するのは難しい。
量子畳み込みニューラルネットワーク(Quantum Convolutional Neural Network, QCNN)は、量子コンピューティング環境を用いてCNNで解決する問題に対する新しい解決策を提供する。
論文 参考訳(メタデータ) (2020-09-20T12:29:05Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。