論文の概要: A Quantum Neural Network Transfer-Learning Model for Forecasting Problems with Continuous and Discrete Variables
- arxiv url: http://arxiv.org/abs/2503.07633v1
- Date: Tue, 04 Mar 2025 22:38:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-16 07:11:38.704339
- Title: A Quantum Neural Network Transfer-Learning Model for Forecasting Problems with Continuous and Discrete Variables
- Title(参考訳): 連続変数と離散変数の予測問題に対する量子ニューラルネットワーク変換学習モデル
- Authors: Ismael Abdulrahman,
- Abstract要約: 本研究では,予測問題に対する伝達学習手法として設計した連続可変量子ニューラルネットワーク(CV-QNN)モデルを提案する。
提案した量子技術は、たった8つのトレーニング可能なパラメータと、絡み合うための2本のワイヤを持つ単一の量子層と、10個の量子ゲートを持つ単純な構造を特徴としている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This study introduces a continuous-variable quantum neural network (CV-QNN) model designed as a transfer-learning approach for forecasting problems. The proposed quantum technique features a simple structure with only eight trainable parameters, a single quantum layer with two wires to create entanglement, and ten quantum gates, hence the name QNNet10, effectively mimicking the functionality of classical neural networks. A notable aspect is that the quantum network achieves high accuracy with random initialization after a single iteration. This pretrained model is innovative as it requires no training or parameter tuning when applied to new datasets, allowing for parameter freezing while enabling the addition of a final layer for fine-tuning. Additionally, an equivalent discrete-variable quantum neural network (DV-QNN) is presented, structured similarly to the CV model. However, analysis shows that the two-wire DV model does not significantly enhance performance. As a result, a four-wire DV model is proposed, achieving comparable results but requiring a larger and more complex structure with additional gates. The pretrained model is applied to five forecasting problems of varying sizes, demonstrating its effectiveness.
- Abstract(参考訳): 本研究では,予測問題に対する伝達学習手法として設計した連続可変量子ニューラルネットワーク(CV-QNN)モデルを提案する。
提案した量子技術は、訓練可能なパラメータがたった8つ、絡み合うために2本のワイヤを持つ単一の量子層、そして10個の量子ゲートを持つ単純な構造を特徴としている。
特筆すべき点は、量子ネットワークが単一反復後のランダム初期化によって高い精度を達成することである。
この事前訓練されたモデルは、新しいデータセットに適用する際にトレーニングやパラメータチューニングを必要とせず、パラメータ凍結を可能にし、微調整のための最終レイヤの追加を可能にするため、革新的だ。
さらに、CVモデルと同様に構成された等価な離散可変量子ニューラルネットワーク(DV-QNN)が提示される。
しかし,2線DVモデルでは性能が著しく向上しないことがわかった。
結果として、4本のワイヤDVモデルが提案され、同等の結果が得られたが、追加のゲートを持つより大きく複雑な構造が必要である。
事前学習されたモデルは、様々なサイズの5つの予測問題に適用され、その有効性を示す。
関連論文リスト
- Fourier Neural Operators for Learning Dynamics in Quantum Spin Systems [77.88054335119074]
ランダム量子スピン系の進化をモデル化するためにFNOを用いる。
量子波動関数全体の2n$の代わりに、コンパクトなハミルトン観測可能集合にFNOを適用する。
論文 参考訳(メタデータ) (2024-09-05T07:18:09Z) - Multi-Scale Feature Fusion Quantum Depthwise Convolutional Neural Networks for Text Classification [3.0079490585515343]
量子畳み込みに基づく新しい量子ニューラルネットワーク(QNN)モデルを提案する。
我々は、パラメータの数を著しく減らし、計算複雑性を下げる量子深度畳み込みを開発する。
また,単語レベルの特徴と文レベルの特徴を統合することで,モデル性能を向上させるマルチスケール機能融合機構を導入する。
論文 参考訳(メタデータ) (2024-05-22T10:19:34Z) - Coherent Feed Forward Quantum Neural Network [2.1178416840822027]
量子ニューラルネットワーク(QNN)に焦点をあてた量子機械学習は、いまだに膨大な研究分野である。
適応可能な中間層とノードの観点から,従来のFFNNの汎用性とシームレスに整合するボナフェイドQNNモデルを提案する。
本研究では,診断乳がん(Wisconsin)やクレジットカード不正検出データセットなど,さまざまなベンチマークデータセットを用いて提案モデルを検証した。
論文 参考訳(メタデータ) (2024-02-01T15:13:26Z) - Towards Neural Variational Monte Carlo That Scales Linearly with System
Size [67.09349921751341]
量子多体問題(Quantum many-body problem)は、例えば高温超伝導体のようなエキゾチックな量子現象をデミストする中心である。
量子状態を表すニューラルネットワーク(NN)と変分モンテカルロ(VMC)アルゴリズムの組み合わせは、そのような問題を解決する上で有望な方法であることが示されている。
ベクトル量子化技術を用いて,VMCアルゴリズムの局所エネルギー計算における冗長性を利用するNNアーキテクチャVector-Quantized Neural Quantum States (VQ-NQS)を提案する。
論文 参考訳(メタデータ) (2022-12-21T19:00:04Z) - Vertical Layering of Quantized Neural Networks for Heterogeneous
Inference [57.42762335081385]
量子化モデル全体を1つのモデルにカプセル化するための,ニューラルネットワーク重みの新しい垂直層表現について検討する。
理論的には、1つのモデルのトレーニングとメンテナンスのみを必要としながら、オンデマンドサービスの正確なネットワークを達成できます。
論文 参考訳(メタデータ) (2022-12-10T15:57:38Z) - Hyperparameter Importance of Quantum Neural Networks Across Small
Datasets [1.1470070927586014]
量子ニューラルネットワークは、ニューラルネットワークと同じような役割を果たす。
機械学習に適した回路アーキテクチャについてはほとんど知られていない。
本研究は量子機械学習モデルを研究するための新しい手法を紹介する。
論文 参考訳(メタデータ) (2022-06-20T20:26:20Z) - Efficient Quantum Feature Extraction for CNN-based Learning [5.236201168829204]
本稿では,古典的CNNモデルの識別可能性を高めるために,量子古典的なディープネットワーク構造を提案する。
我々は、より強力な関数近似器であるPQCを構築し、受容場内の特徴を捉えるためにより複雑な構造を持つ。
その結果, アンザッツの表現性が高いモデルでは, 低コストで精度が高いことが判明した。
論文 参考訳(メタデータ) (2022-01-04T17:04:07Z) - Recurrent Quantum Neural Networks [7.6146285961466]
リカレントニューラルネットワークは、機械学習における多くのシーケンス対シーケンスモデルの基盤となっている。
非自明なタスクに対して実証可能な性能を持つ量子リカレントニューラルネットワーク(QRNN)を構築する。
我々はQRNNをMNIST分類で評価し、QRNNに各画像ピクセルを供給し、また、最新のデータ拡張を前処理のステップとして利用する。
論文 参考訳(メタデータ) (2020-06-25T17:59:44Z) - Phase Detection with Neural Networks: Interpreting the Black Box [58.720142291102135]
ニューラルネットワーク(NN)は通常、予測の背後にある推論に対する洞察を妨げます。
本研究では,1次元拡張スピンレスFermi-Hubbardモデルの位相を半充足で予測するために,NNのブラックボックスをいかに影響関数が解き放つかを示す。
論文 参考訳(メタデータ) (2020-04-09T17:45:45Z) - Kernel and Rich Regimes in Overparametrized Models [69.40899443842443]
過度にパラメータ化された多層ネットワーク上の勾配勾配は、RKHSノルムではないリッチな暗黙バイアスを誘発できることを示す。
また、より複雑な行列分解モデルと多層非線形ネットワークに対して、この遷移を実証的に示す。
論文 参考訳(メタデータ) (2020-02-20T15:43:02Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。