論文の概要: Quantum-inspired activation functions in the convolutional neural network
- arxiv url: http://arxiv.org/abs/2404.05901v2
- Date: Tue, 22 Oct 2024 17:53:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-23 14:24:09.627591
- Title: Quantum-inspired activation functions in the convolutional neural network
- Title(参考訳): 畳み込みニューラルネットワークにおける量子誘発活性化機能
- Authors: Shaozhi Li, M Sabbir Salek, Yao Wang, Mashrur Chowdhury,
- Abstract要約: 畳み込みニューラルネットワーク(CNN)に組み込まれた量子回路の機能的表現性について検討する。
我々は,量子活性化関数の特性に基づいて,ハイブリッド量子Chebyshev-polynomial Network (QCPN) を開発した。
この結果から,量子インスパイアされたアクティベーション関数は,高次学習能力を維持しながらモデル深度を低減できることが示唆された。
- 参考スコア(独自算出の注目度): 6.09437748873686
- License:
- Abstract: Driven by the significant advantages offered by quantum computing, research in quantum machine learning has increased in recent years. While quantum speed-up has been demonstrated in some applications of quantum machine learning, a comprehensive understanding of its underlying mechanisms for improved performance remains elusive. Our study address this problem by investigating the functional expressibility of quantum circuits integrated within a convolutional neural network (CNN). Through numerical experiments on the MNIST, Fashion MNIST, and Letter datasets, our hybrid quantum-classical CNN model demonstrates superior feature selection capabilities and substantially reduces the required training steps compared to classical CNNs. Notably, we observe similar performance improvements when incorporating three other quantum-inspired activation functions in classical neural networks, indicating the benefits of adopting quantum-inspired activation functions. Additionally, we developed a hybrid quantum Chebyshev-polynomial network (QCPN) based on the properties of quantum activation functions. We demonstrate that a three-layer QCPN can approximate any continuous function, a feat not achievable by a standard three-layer classical neural network. Our findings suggest that quantum-inspired activation functions can reduce model depth while maintaining high learning capability, making them a promising approach for optimizing large-scale machine-learning models. We also outline future research directions for leveraging quantum advantages in machine learning, aiming to unlock further potential in this rapidly evolving field.
- Abstract(参考訳): 量子コンピューティングがもたらす大きなアドバンテージによって、近年は量子機械学習の研究が増加している。
量子機械学習のいくつかの応用で量子スピードアップが実証されているが、その基盤となる性能改善メカニズムの包括的理解はいまだに解明されていない。
本研究では,畳み込みニューラルネットワーク(CNN)に組み込まれた量子回路の機能的表現性について検討し,この問題に対処する。
MNIST, Fashion MNIST, Letterデータセットの数値実験を通じて、我々のハイブリッド量子古典的CNNモデルは、特徴選択能力に優れ、古典的CNNと比較して、必要なトレーニングステップを大幅に削減する。
特に、古典的ニューラルネットワークに他の3つの量子インスパイア活性化関数を組み込むことにより、量子インスパイア活性化関数を採用する利点が示される。
さらに,量子アクティベーション関数の特性に基づくハイブリッド量子Chebyshev-polynomial Network (QCPN)を開発した。
我々は、3層QCPNが任意の連続関数を近似できることを示し、これは標準の3層古典ニューラルネットワークでは達成できない偉業である。
この結果から,量子インスパイアされたアクティベーション関数は,高次学習能力を維持しながらモデルの深度を低減し,大規模機械学習モデルの最適化に有望なアプローチであることが示唆された。
また、この急速に発展する分野におけるさらなるポテンシャルを解き放つことを目的として、機械学習における量子アドバンテージを活用するための今後の研究の方向性について概説する。
関連論文リスト
- Let the Quantum Creep In: Designing Quantum Neural Network Models by
Gradually Swapping Out Classical Components [1.024113475677323]
現代のAIシステムはニューラルネットワーク上に構築されることが多い。
古典的ニューラルネットワーク層を量子層に置き換える枠組みを提案する。
画像分類データセットの数値実験を行い、量子部品の体系的導入による性能変化を実証する。
論文 参考訳(メタデータ) (2024-09-26T07:01:29Z) - A Quantum-Classical Collaborative Training Architecture Based on Quantum
State Fidelity [50.387179833629254]
我々は,コ・テンク (co-TenQu) と呼ばれる古典量子アーキテクチャを導入する。
Co-TenQuは古典的なディープニューラルネットワークを41.72%まで向上させる。
他の量子ベースの手法よりも1.9倍も優れており、70.59%少ない量子ビットを使用しながら、同様の精度を達成している。
論文 参考訳(メタデータ) (2024-02-23T14:09:41Z) - Quantum Generative Adversarial Networks: Bridging Classical and Quantum
Realms [0.6827423171182153]
GAN(Generative Adversarial Networks)領域における古典的および量子コンピューティングパラダイムの相乗的融合について検討する。
我々の目的は、量子計算要素を従来のGANアーキテクチャにシームレスに統合し、トレーニングプロセスの強化のために新しい経路を開放することである。
この研究は量子化機械学習の最前線に位置し、量子システムの計算能力を活用するための重要な一歩である。
論文 参考訳(メタデータ) (2023-12-15T16:51:36Z) - QuanGCN: Noise-Adaptive Training for Robust Quantum Graph Convolutional
Networks [124.7972093110732]
本稿では,ノード間の局所的なメッセージパッシングをクロスゲート量子演算のシーケンスで学習する量子グラフ畳み込みネットワーク(QuanGCN)を提案する。
現代の量子デバイスから固有のノイズを緩和するために、ノードの接続をスパーズするためにスパース制約を適用します。
我々のQuanGCNは、いくつかのベンチマークグラフデータセットの古典的なアルゴリズムよりも機能的に同等か、さらに優れている。
論文 参考訳(メタデータ) (2022-11-09T21:43:16Z) - Recent Advances for Quantum Neural Networks in Generative Learning [98.88205308106778]
量子生成学習モデル(QGLM)は、古典的な学習モデルを上回る可能性がある。
機械学習の観点からQGLMの現状を概観する。
従来の機械学習タスクと量子物理学の両方におけるQGLMの潜在的な応用について論じる。
論文 参考訳(メタデータ) (2022-06-07T07:32:57Z) - QDCNN: Quantum Dilated Convolutional Neural Network [1.52292571922932]
量子拡張畳み込みニューラルネットワーク(QDCNN)と呼ばれる新しいハイブリッド量子古典型アルゴリズムを提案する。
提案手法は,現代のディープラーニングアルゴリズムに広く応用されている拡張畳み込みの概念を,ハイブリッドニューラルネットワークの文脈にまで拡張する。
提案したQDCNNは,量子畳み込み過程において,計算コストを低減しつつ,より大きなコンテキストを捉えることができる。
論文 参考訳(メタデータ) (2021-10-29T10:24:34Z) - On exploring the potential of quantum auto-encoder for learning quantum systems [60.909817434753315]
そこで我々は,古典的な3つのハードラーニング問題に対処するために,QAEに基づく効果的な3つの学習プロトコルを考案した。
私たちの研究は、ハード量子物理学と量子情報処理タスクを達成するための高度な量子学習アルゴリズムの開発に新たな光を当てています。
論文 参考訳(メタデータ) (2021-06-29T14:01:40Z) - Quantum Federated Learning with Quantum Data [87.49715898878858]
量子機械学習(QML)は、量子コンピューティングの発展に頼って、大規模な複雑な機械学習問題を探求する、有望な分野として登場した。
本稿では、量子データ上で動作し、量子回路パラメータの学習を分散的に共有できる初めての完全量子連合学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-30T12:19:27Z) - Quantum neural networks with deep residual learning [29.929891641757273]
本稿では,深層残留学習(resqnn)を用いた新しい量子ニューラルネットワークを提案する。
ResQNNは未知のユニタリを学び、驚くべきパフォーマンスを得ることができます。
論文 参考訳(メタデータ) (2020-12-14T18:11:07Z) - The power of quantum neural networks [3.327474729829121]
しかし、短期的には、量子機械学習の利点はあまり明確ではない。
我々は、情報幾何学のツールを使用して、量子モデルと古典モデルの表現可能性の概念を定義します。
量子ニューラルネットワークは、同等の古典的ニューラルネットワークよりもはるかに優れた次元を達成可能であることを示す。
論文 参考訳(メタデータ) (2020-10-30T18:13:32Z) - Experimental Quantum Generative Adversarial Networks for Image
Generation [93.06926114985761]
超伝導量子プロセッサを用いた実世界の手書き桁画像の学習と生成を実験的に行う。
我々の研究は、短期量子デバイス上での高度な量子生成モデル開発のためのガイダンスを提供する。
論文 参考訳(メタデータ) (2020-10-13T06:57:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。