論文の概要: A Quantum Neural Network Transfer-Learning Model for Forecasting Problems with Continuous and Discrete Variables
- arxiv url: http://arxiv.org/abs/2503.07633v1
- Date: Tue, 04 Mar 2025 22:38:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 22:35:51.305414
- Title: A Quantum Neural Network Transfer-Learning Model for Forecasting Problems with Continuous and Discrete Variables
- Title(参考訳): 連続変数と離散変数の予測問題に対する量子ニューラルネットワーク変換学習モデル
- Authors: Ismael Abdulrahman,
- Abstract要約: 本研究では,予測問題に対する伝達学習手法として設計した連続可変量子ニューラルネットワーク(CV-QNN)モデルを提案する。
提案した量子技術は、たった8つのトレーニング可能なパラメータと、絡み合うための2本のワイヤを持つ単一の量子層と、10個の量子ゲートを持つ単純な構造を特徴としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study introduces a continuous-variable quantum neural network (CV-QNN) model designed as a transfer-learning approach for forecasting problems. The proposed quantum technique features a simple structure with only eight trainable parameters, a single quantum layer with two wires to create entanglement, and ten quantum gates, hence the name QNNet10, effectively mimicking the functionality of classical neural networks. A notable aspect is that the quantum network achieves high accuracy with random initialization after a single iteration. This pretrained model is innovative as it requires no training or parameter tuning when applied to new datasets, allowing for parameter freezing while enabling the addition of a final layer for fine-tuning. Additionally, an equivalent discrete-variable quantum neural network (DV-QNN) is presented, structured similarly to the CV model. However, analysis shows that the two-wire DV model does not significantly enhance performance. As a result, a four-wire DV model is proposed, achieving comparable results but requiring a larger and more complex structure with additional gates. The pretrained model is applied to five forecasting problems of varying sizes, demonstrating its effectiveness.
- Abstract(参考訳): 本研究では,予測問題に対する伝達学習手法として設計した連続可変量子ニューラルネットワーク(CV-QNN)モデルを提案する。
提案した量子技術は、訓練可能なパラメータがたった8つ、絡み合うために2本のワイヤを持つ単一の量子層、そして10個の量子ゲートを持つ単純な構造を特徴としている。
特筆すべき点は、量子ネットワークが単一反復後のランダム初期化によって高い精度を達成することである。
この事前訓練されたモデルは、新しいデータセットに適用する際にトレーニングやパラメータチューニングを必要とせず、パラメータ凍結を可能にし、微調整のための最終レイヤの追加を可能にするため、革新的だ。
さらに、CVモデルと同様に構成された等価な離散可変量子ニューラルネットワーク(DV-QNN)が提示される。
しかし,2線DVモデルでは性能が著しく向上しないことがわかった。
結果として、4本のワイヤDVモデルが提案され、同等の結果が得られたが、追加のゲートを持つより大きく複雑な構造が必要である。
事前学習されたモデルは、様々なサイズの5つの予測問題に適用され、その有効性を示す。
関連論文リスト
- Data re-uploading in Quantum Machine Learning for time series: application to traffic forecasting [1.2885961238169932]
本稿では、輸送予測の文脈における量子データ再ロードの最初の応用について述べる。
この技術は、古典的なデータを量子状態に繰り返しエンコードすることで、トラフィックダイナミクスのような複雑なパターンをよりよくキャプチャすることを可能にする。
以上の結果から,従来の手法と競合する精度が得られ,特に量子ビット数の増加や再アップロードブロックの増大にともなって,ハイブリッドモデルによる性能向上が期待できる。
論文 参考訳(メタデータ) (2025-01-22T10:21:00Z) - Fourier Neural Operators for Learning Dynamics in Quantum Spin Systems [77.88054335119074]
ランダム量子スピン系の進化をモデル化するためにFNOを用いる。
量子波動関数全体の2n$の代わりに、コンパクトなハミルトン観測可能集合にFNOを適用する。
論文 参考訳(メタデータ) (2024-09-05T07:18:09Z) - Training-efficient density quantum machine learning [2.918930150557355]
量子機械学習は強力でフレキシブルで効率的にトレーニング可能なモデルを必要とする。
トレーニング可能なユニタリの集合にランダム化を組み込んだ学習モデルである密度量子ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-30T16:40:28Z) - Multi-Scale Feature Fusion Quantum Depthwise Convolutional Neural Networks for Text Classification [3.0079490585515343]
量子畳み込みに基づく新しい量子ニューラルネットワーク(QNN)モデルを提案する。
我々は、パラメータの数を著しく減らし、計算複雑性を下げる量子深度畳み込みを開発する。
また,単語レベルの特徴と文レベルの特徴を統合することで,モデル性能を向上させるマルチスケール機能融合機構を導入する。
論文 参考訳(メタデータ) (2024-05-22T10:19:34Z) - Coherent Feed Forward Quantum Neural Network [2.1178416840822027]
量子ニューラルネットワーク(QNN)に焦点をあてた量子機械学習は、いまだに膨大な研究分野である。
適応可能な中間層とノードの観点から,従来のFFNNの汎用性とシームレスに整合するボナフェイドQNNモデルを提案する。
本研究では,診断乳がん(Wisconsin)やクレジットカード不正検出データセットなど,さまざまなベンチマークデータセットを用いて提案モデルを検証した。
論文 参考訳(メタデータ) (2024-02-01T15:13:26Z) - PreQuant: A Task-agnostic Quantization Approach for Pre-trained Language
Models [52.09865918265002]
ファインチューニングのフレームワークPreQuantに先立って,新しい量子化を提案する。
PreQuantは様々な量子化戦略と互換性があり、インダクションされた量子化誤差を修正するために、アウタリア対応の微調整が組み込まれている。
BERT,RoBERTa,T5を用いたGLUEベンチマークにおけるPreQuantの有効性を示す。
論文 参考訳(メタデータ) (2023-05-30T08:41:33Z) - Quantum machine learning for image classification [39.58317527488534]
本研究では、量子力学の原理を有効計算に活用する2つの量子機械学習モデルを紹介する。
我々の最初のモデルは、並列量子回路を持つハイブリッド量子ニューラルネットワークであり、ノイズの多い中間スケール量子時代においても計算の実行を可能にする。
第2のモデルは、クオン進化層を持つハイブリッド量子ニューラルネットワークを導入し、畳み込みプロセスによる画像の解像度を低下させる。
論文 参考訳(メタデータ) (2023-04-18T18:23:20Z) - A performance characterization of quantum generative models [35.974070202997176]
量子生成モデリングに使用される量子回路を比較する。
2つの一般的なトレーニング手法を用いてデータセットの確率分布を学習する。
確率分布のコプラを学習する離散アーキテクチャの変種が、他のすべての手法より優れていることを実証的に見出した。
論文 参考訳(メタデータ) (2023-01-23T11:00:29Z) - Towards Neural Variational Monte Carlo That Scales Linearly with System
Size [67.09349921751341]
量子多体問題(Quantum many-body problem)は、例えば高温超伝導体のようなエキゾチックな量子現象をデミストする中心である。
量子状態を表すニューラルネットワーク(NN)と変分モンテカルロ(VMC)アルゴリズムの組み合わせは、そのような問題を解決する上で有望な方法であることが示されている。
ベクトル量子化技術を用いて,VMCアルゴリズムの局所エネルギー計算における冗長性を利用するNNアーキテクチャVector-Quantized Neural Quantum States (VQ-NQS)を提案する。
論文 参考訳(メタデータ) (2022-12-21T19:00:04Z) - Vertical Layering of Quantized Neural Networks for Heterogeneous
Inference [57.42762335081385]
量子化モデル全体を1つのモデルにカプセル化するための,ニューラルネットワーク重みの新しい垂直層表現について検討する。
理論的には、1つのモデルのトレーニングとメンテナンスのみを必要としながら、オンデマンドサービスの正確なネットワークを達成できます。
論文 参考訳(メタデータ) (2022-12-10T15:57:38Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Human Trajectory Prediction via Neural Social Physics [63.62824628085961]
軌道予測は多くの分野において広く研究され、多くのモデルベースおよびモデルフリーな手法が研究されている。
ニューラル微分方程式モデルに基づく新しい手法を提案する。
我々の新しいモデル(ニューラル社会物理学またはNSP)は、学習可能なパラメータを持つ明示的な物理モデルを使用するディープニューラルネットワークである。
論文 参考訳(メタデータ) (2022-07-21T12:11:18Z) - Hyperparameter Importance of Quantum Neural Networks Across Small
Datasets [1.1470070927586014]
量子ニューラルネットワークは、ニューラルネットワークと同じような役割を果たす。
機械学習に適した回路アーキテクチャについてはほとんど知られていない。
本研究は量子機械学習モデルを研究するための新しい手法を紹介する。
論文 参考訳(メタデータ) (2022-06-20T20:26:20Z) - Efficient Quantum Feature Extraction for CNN-based Learning [5.236201168829204]
本稿では,古典的CNNモデルの識別可能性を高めるために,量子古典的なディープネットワーク構造を提案する。
我々は、より強力な関数近似器であるPQCを構築し、受容場内の特徴を捉えるためにより複雑な構造を持つ。
その結果, アンザッツの表現性が高いモデルでは, 低コストで精度が高いことが判明した。
論文 参考訳(メタデータ) (2022-01-04T17:04:07Z) - MoEfication: Conditional Computation of Transformer Models for Efficient
Inference [66.56994436947441]
トランスフォーマーベースの事前学習言語モデルは、パラメータ容量が大きいため、ほとんどのNLPタスクにおいて優れた性能を実現することができるが、計算コストも大きい。
スパースアクティベーション現象に基づく条件計算により,大規模モデル推論を高速化する。
そこで本研究では,モデルサイズが等しいMoE(Mix-of-experts)バージョン,すなわちMoEficationに変換することを提案する。
論文 参考訳(メタデータ) (2021-10-05T02:14:38Z) - Recurrent Quantum Neural Networks [7.6146285961466]
リカレントニューラルネットワークは、機械学習における多くのシーケンス対シーケンスモデルの基盤となっている。
非自明なタスクに対して実証可能な性能を持つ量子リカレントニューラルネットワーク(QRNN)を構築する。
我々はQRNNをMNIST分類で評価し、QRNNに各画像ピクセルを供給し、また、最新のデータ拡張を前処理のステップとして利用する。
論文 参考訳(メタデータ) (2020-06-25T17:59:44Z) - Phase Detection with Neural Networks: Interpreting the Black Box [58.720142291102135]
ニューラルネットワーク(NN)は通常、予測の背後にある推論に対する洞察を妨げます。
本研究では,1次元拡張スピンレスFermi-Hubbardモデルの位相を半充足で予測するために,NNのブラックボックスをいかに影響関数が解き放つかを示す。
論文 参考訳(メタデータ) (2020-04-09T17:45:45Z) - Kernel and Rich Regimes in Overparametrized Models [69.40899443842443]
過度にパラメータ化された多層ネットワーク上の勾配勾配は、RKHSノルムではないリッチな暗黙バイアスを誘発できることを示す。
また、より複雑な行列分解モデルと多層非線形ネットワークに対して、この遷移を実証的に示す。
論文 参考訳(メタデータ) (2020-02-20T15:43:02Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。