論文の概要: Quantum Convolutional Neural Network with Flexible Stride
- arxiv url: http://arxiv.org/abs/2412.00645v1
- Date: Sun, 01 Dec 2024 02:37:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:44:03.956162
- Title: Quantum Convolutional Neural Network with Flexible Stride
- Title(参考訳): フレキシブルストライドを用いた量子畳み込みニューラルネットワーク
- Authors: Kai Yu, Song Lin, Bin-Bin Cai,
- Abstract要約: 本稿では,新しい量子畳み込みニューラルネットワークアルゴリズムを提案する。
異なるタスクに対応するために、柔軟にストライドを調整できます。
データスケールの指数加速度を、従来のものに比べて少ないメモリで達成することができる。
- 参考スコア(独自算出の注目度): 7.362858964229726
- License:
- Abstract: Convolutional neural network is a crucial tool for machine learning, especially in the field of computer vision. Its unique structure and characteristics provide significant advantages in feature extraction. However, with the exponential growth of data scale, classical computing architectures face serious challenges in terms of time efficiency and memory requirements. In this paper, we propose a novel quantum convolutional neural network algorithm. It can flexibly adjust the stride to accommodate different tasks while ensuring that the required qubits do not increase proportionally with the size of the sliding window. First, a data loading method based on quantum superposition is presented, which is able to exponentially reduce space requirements. Subsequently, quantum subroutines for convolutional layers, pooling layers, and fully connected layers are designed, fully replicating the core functions of classical convolutional neural networks. Among them, the quantum arithmetic technique is introduced to recover the data position information of the corresponding receptive field through the position information of the feature, which makes the selection of step size more flexible. Moreover, parallel quantum amplitude estimation and swap test techniques are employed, enabling parallel feature extraction. Analysis shows that the method can achieve exponential acceleration of data scale in less memory compared with its classical counterpart. Finally, the proposed method is numerically simulated on the Qiskit framework using handwritten digital images in the MNIST dataset. The experimental results provide evidence for the effectiveness of the model.
- Abstract(参考訳): 畳み込みニューラルネットワークは、特にコンピュータビジョンの分野において、機械学習にとって重要なツールである。
その独特の構造と特徴は特徴抽出において大きな利点をもたらす。
しかし、データスケールの急激な成長に伴い、古典的なコンピューティングアーキテクチャは、時間効率とメモリ要求の観点から深刻な課題に直面している。
本稿では,新しい量子畳み込みニューラルネットワークアルゴリズムを提案する。
必要なキュービットがスライディングウィンドウのサイズに比例して増加しないことを保証しながら、異なるタスクに対応するためにストライドを柔軟に調整することができる。
まず、空間要求を指数関数的に低減できる量子重ね合わせに基づくデータローディング法を提案する。
その後、畳み込み層、プール層、および完全に接続された層のための量子サブルーチンが設計され、古典的な畳み込みニューラルネットワークの中核機能を完全に複製する。
このうち、その特徴の位置情報を介して、対応する受容場のデータ位置情報を復元する量子演算手法を導入し、ステップサイズの選択をより柔軟にする。
さらに、並列量子振幅推定とスワップテスト技術を採用し、並列特徴抽出を可能にする。
解析により,従来の手法に比べて少ないメモリでデータスケールの指数加速度を達成できることが示唆された。
最後に,MNISTデータセットにおける手書きデジタル画像を用いて,Qiskitフレームワーク上で数値シミュレーションを行った。
実験結果から, モデルの有効性が示唆された。
関連論文リスト
- Training-efficient density quantum machine learning [2.918930150557355]
量子機械学習は強力でフレキシブルで効率的にトレーニング可能なモデルを必要とする。
トレーニング可能なユニタリの集合にランダム化を組み込んだ学習モデルである密度量子ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-30T16:40:28Z) - Enhancing the expressivity of quantum neural networks with residual
connections [0.0]
量子残差ニューラルネットワーク(QResNets)を実装する量子回路に基づくアルゴリズムを提案する。
我々の研究は、古典的残留ニューラルネットワークの完全な量子的実装の基礎を築いた。
論文 参考訳(メタデータ) (2024-01-29T04:00:51Z) - Heterogenous Memory Augmented Neural Networks [84.29338268789684]
ニューラルネットワークのための新しいヘテロジニアスメモリ拡張手法を提案する。
学習可能なメモリトークンをアテンション機構付きで導入することにより、膨大な計算オーバーヘッドを伴わずに性能を効果的に向上させることができる。
In-distriion (ID) と Out-of-distriion (OOD) の両方の条件下での様々な画像およびグラフベースのタスクに対するアプローチを示す。
論文 参考訳(メタデータ) (2023-10-17T01:05:28Z) - ShadowNet for Data-Centric Quantum System Learning [188.683909185536]
本稿では,ニューラルネットワークプロトコルと古典的シャドウの強みを組み合わせたデータ中心学習パラダイムを提案する。
ニューラルネットワークの一般化力に基づいて、このパラダイムはオフラインでトレーニングされ、これまで目に見えないシステムを予測できる。
量子状態トモグラフィーおよび直接忠実度推定タスクにおいて、我々のパラダイムのインスタンス化を示し、60量子ビットまでの数値解析を行う。
論文 参考訳(メタデータ) (2023-08-22T09:11:53Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Comparing concepts of quantum and classical neural network models for
image classification task [0.456877715768796]
本資料は、ハイブリッド量子古典ニューラルネットワークのトレーニングと性能に関する実験結果を含む。
シミュレーションは時間を要するが、量子ネットワークは時間を要するが、古典的なネットワークを克服する。
論文 参考訳(メタデータ) (2021-08-19T18:49:30Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Variational learning for quantum artificial neural networks [0.0]
まず、量子プロセッサ上での人工ニューロンとフィードフォワードニューラルネットワークの実装について、最近の一連の研究を概説する。
次に、変分アンサンプリングプロトコルに基づく効率的な個別量子ノードのオリジナル実現を提案する。
メモリ効率の高いフィードフォワードアーキテクチャとの完全な互換性を維持しながら、単一ニューロンの活性化確率を決定するのに必要な量子回路深さを効果的に削減する。
論文 参考訳(メタデータ) (2021-03-03T16:10:15Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。