論文の概要: Let the Quantum Creep In: Designing Quantum Neural Network Models by
Gradually Swapping Out Classical Components
- arxiv url: http://arxiv.org/abs/2409.17583v1
- Date: Thu, 26 Sep 2024 07:01:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-28 22:46:14.704437
- Title: Let the Quantum Creep In: Designing Quantum Neural Network Models by
Gradually Swapping Out Classical Components
- Title(参考訳): 量子クリープ:量子ニューラルネットワークモデルの設計
古典的なコンポーネントを段階的にスワップする
- Authors: Peiyong Wang, Casey. R. Myers, Lloyd C. L. Hollenberg, Udaya
Parampalli
- Abstract要約: 現代のAIシステムはニューラルネットワーク上に構築されることが多い。
古典的ニューラルネットワーク層を量子層に置き換える枠組みを提案する。
画像分類データセットの数値実験を行い、量子部品の体系的導入による性能変化を実証する。
- 参考スコア(独自算出の注目度): 1.024113475677323
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial Intelligence (AI), with its multiplier effect and wide
applications in multiple areas, could potentially be an important application
of quantum computing. Since modern AI systems are often built on neural
networks, the design of quantum neural networks becomes a key challenge in
integrating quantum computing into AI. To provide a more fine-grained
characterisation of the impact of quantum components on the performance of
neural networks, we propose a framework where classical neural network layers
are gradually replaced by quantum layers that have the same type of input and
output while keeping the flow of information between layers unchanged,
different from most current research in quantum neural network, which favours
an end-to-end quantum model. We start with a simple three-layer classical
neural network without any normalisation layers or activation functions, and
gradually change the classical layers to the corresponding quantum versions. We
conduct numerical experiments on image classification datasets such as the
MNIST, FashionMNIST and CIFAR-10 datasets to demonstrate the change of
performance brought by the systematic introduction of quantum components.
Through this framework, our research sheds new light on the design of future
quantum neural network models where it could be more favourable to search for
methods and frameworks that harness the advantages from both the classical and
quantum worlds.
- Abstract(参考訳): 人工知能(AI)はその乗算器効果と複数の分野の幅広い応用により、量子コンピューティングの重要な応用となる可能性がある。
現代のAIシステムはニューラルネットワーク上に構築されることが多いため、量子ニューラルネットワークの設計は、量子コンピューティングをAIに統合する上で重要な課題となっている。
ニューラルネットワークの性能に対する量子成分の影響をよりきめ細やかな特徴化するために,従来のニューラルネットワーク層は,エンドツーエンドの量子モデルを好む量子ニューラルネットワークのほとんどの研究と異なり,同じタイプの入力と出力を持つ量子層に徐々に置き換えられるフレームワークを提案する。
まず、正規化層やアクティベーション関数を持たない単純な3層古典ニューラルネットワークから始め、古典層を対応する量子バージョンに徐々に変更する。
我々は,MNIST,FashionMNIST,CIFAR-10などの画像分類データセットの数値実験を行い,量子部品の体系的導入による性能変化を示す。
このフレームワークを通じて、我々の研究は将来の量子ニューラルネットワークモデルの設計に新たな光を当て、古典的および量子的世界の長所を生かした手法やフレームワークの探索に好都合です。
関連論文リスト
- CTRQNets & LQNets: Continuous Time Recurrent and Liquid Quantum Neural Networks [76.53016529061821]
Liquid Quantum Neural Network (LQNet) とContinuous Time Recurrent Quantum Neural Network (CTRQNet) を開発した。
LQNetとCTRQNetは、バイナリ分類によってCIFAR 10で40%の精度向上を実現している。
論文 参考訳(メタデータ) (2024-08-28T00:56:03Z) - A Quantum-Classical Collaborative Training Architecture Based on Quantum
State Fidelity [50.387179833629254]
我々は,コ・テンク (co-TenQu) と呼ばれる古典量子アーキテクチャを導入する。
Co-TenQuは古典的なディープニューラルネットワークを41.72%まで向上させる。
他の量子ベースの手法よりも1.9倍も優れており、70.59%少ない量子ビットを使用しながら、同様の精度を達成している。
論文 参考訳(メタデータ) (2024-02-23T14:09:41Z) - Bridging Classical and Quantum Machine Learning: Knowledge Transfer From
Classical to Quantum Neural Networks Using Knowledge Distillation [0.0]
本稿では,知識蒸留を用いた古典的ニューラルネットワークから量子ニューラルネットワークへ知識を伝達する新しい手法を提案する。
我々は、LeNetやAlexNetのような古典的畳み込みニューラルネットワーク(CNN)アーキテクチャを教師ネットワークとして活用する。
量子モデルは、MNISTデータセットで0.80%、より複雑なFashion MNISTデータセットで5.40%の平均精度改善を達成する。
論文 参考訳(メタデータ) (2023-11-23T05:06:43Z) - QuanGCN: Noise-Adaptive Training for Robust Quantum Graph Convolutional
Networks [124.7972093110732]
本稿では,ノード間の局所的なメッセージパッシングをクロスゲート量子演算のシーケンスで学習する量子グラフ畳み込みネットワーク(QuanGCN)を提案する。
現代の量子デバイスから固有のノイズを緩和するために、ノードの接続をスパーズするためにスパース制約を適用します。
我々のQuanGCNは、いくつかのベンチマークグラフデータセットの古典的なアルゴリズムよりも機能的に同等か、さらに優れている。
論文 参考訳(メタデータ) (2022-11-09T21:43:16Z) - QDCNN: Quantum Dilated Convolutional Neural Network [1.52292571922932]
量子拡張畳み込みニューラルネットワーク(QDCNN)と呼ばれる新しいハイブリッド量子古典型アルゴリズムを提案する。
提案手法は,現代のディープラーニングアルゴリズムに広く応用されている拡張畳み込みの概念を,ハイブリッドニューラルネットワークの文脈にまで拡張する。
提案したQDCNNは,量子畳み込み過程において,計算コストを低減しつつ,より大きなコンテキストを捉えることができる。
論文 参考訳(メタデータ) (2021-10-29T10:24:34Z) - A Quantum Convolutional Neural Network for Image Classification [7.745213180689952]
量子畳み込みニューラルネットワーク(QCNN)という新しいニューラルネットワークモデルを提案する。
QCNNは実装可能な量子回路に基づいており、古典的畳み込みニューラルネットワークと同様の構造を持つ。
MNISTデータセットの数値シミュレーションにより,本モデルの有効性が示された。
論文 参考訳(メタデータ) (2021-07-08T06:47:34Z) - The Hintons in your Neural Network: a Quantum Field Theory View of Deep
Learning [84.33745072274942]
線形および非線形の層をユニタリ量子ゲートとして表現する方法を示し、量子モデルの基本的な励起を粒子として解釈する。
ニューラルネットワークの研究のための新しい視点と技術を開くことに加えて、量子定式化は光量子コンピューティングに適している。
論文 参考訳(メタデータ) (2021-03-08T17:24:29Z) - Variational learning for quantum artificial neural networks [0.0]
まず、量子プロセッサ上での人工ニューロンとフィードフォワードニューラルネットワークの実装について、最近の一連の研究を概説する。
次に、変分アンサンプリングプロトコルに基づく効率的な個別量子ノードのオリジナル実現を提案する。
メモリ効率の高いフィードフォワードアーキテクチャとの完全な互換性を維持しながら、単一ニューロンの活性化確率を決定するのに必要な量子回路深さを効果的に削減する。
論文 参考訳(メタデータ) (2021-03-03T16:10:15Z) - Quantum Deformed Neural Networks [83.71196337378022]
我々は,量子コンピュータ上で効率的に動作するように設計された新しい量子ニューラルネットワーク層を開発した。
入力状態の絡み合いに制限された場合、古典的なコンピュータでシミュレートすることができる。
論文 参考訳(メタデータ) (2020-10-21T09:46:12Z) - Experimental Quantum Generative Adversarial Networks for Image
Generation [93.06926114985761]
超伝導量子プロセッサを用いた実世界の手書き桁画像の学習と生成を実験的に行う。
我々の研究は、短期量子デバイス上での高度な量子生成モデル開発のためのガイダンスを提供する。
論文 参考訳(メタデータ) (2020-10-13T06:57:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。