論文の概要: Quantum Neural Network Architectures for Multivariate Time-Series Forecasting
- arxiv url: http://arxiv.org/abs/2510.21168v1
- Date: Fri, 24 Oct 2025 05:44:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.396996
- Title: Quantum Neural Network Architectures for Multivariate Time-Series Forecasting
- Title(参考訳): 多変量時系列予測のための量子ニューラルネットワークアーキテクチャ
- Authors: Sandra Ranilla-Cortina, Diego A. Aranda, Jorge Ballesteros, Jesus Bonilla, Nerea Monrio, Elías F. Combarro, Jose Ranilla,
- Abstract要約: 多変量設定に向けて変動量子回路モデルを拡張する戦略を導入する。
また,量子自己保持機構を統合した新しい量子トランスアーキテクチャを導入する。
量子ベースモデルは、トレーニング可能なパラメータを少なくして、競争的または優れた予測精度を達成する可能性があることを示す。
- 参考スコア(独自算出の注目度): 0.08126281861908966
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we address the challenge of multivariate time-series forecasting using quantum machine learning techniques. We introduce adaptation strategies that extend variational quantum circuit models, traditionally limited to univariate data, toward the multivariate setting, exploring both purely quantum and hybrid quantum-classical formulations. First, we extend and benchmark several VQC-based and hybrid architectures to systematically evaluate their capacity to model cross-variable dependencies. Second, building upon these foundations, we introduce the iQTransformer, a novel quantum transformer architecture that integrates a quantum self-attention mechanism within the iTransformer framework, enabling a quantum-native representation of inter-variable relationships. Third, we provide a comprehensive empirical evaluation on both synthetic and real-world datasets, showing that quantum-based models may achieve competitive or superior forecasting accuracy with fewer trainable parameters and faster convergence than state-of-the-art classical and quantum baselines in some cases. These contributions highlight the potential of quantum-enhanced architectures as efficient and scalable tools for advancing multivariate time-series forecasting.
- Abstract(参考訳): 本稿では,量子機械学習技術を用いた多変量時系列予測の課題に対処する。
本稿では,変分量子回路モデルを多変量集合へと拡張し,純粋に量子的およびハイブリッドな量子古典的定式化を探求する適応戦略を提案する。
まず、複数のVQCベースのハイブリッドアーキテクチャを拡張してベンチマークし、相互変数の依存関係をモデル化する能力について体系的に評価する。
第二に、これらの基礎の上に構築されたiQTransformerは、新しい量子トランスフォーマーアーキテクチャであり、iTransformerフレームワーク内に量子自己アテンション機構を統合し、変数間の関係の量子ネイティブ表現を可能にする。
第三に、我々は、合成と実世界の両方のデータセットに関する総合的な経験的評価を行い、量子ベースモデルは、訓練可能なパラメータが少なく、場合によっては最先端の古典的および量子ベースラインよりも早く収束し、競争的または優れた予測精度を達成できることを示した。
これらの貢献は、多変量時系列予測を進めるための効率的でスケーラブルなツールとして、量子化アーキテクチャの可能性を強調している。
関連論文リスト
- VQC-MLPNet: An Unconventional Hybrid Quantum-Classical Architecture for Scalable and Robust Quantum Machine Learning [60.996803677584424]
変分量子回路(VQC)は、量子機械学習のための新しい経路を提供する。
それらの実用的応用は、制約付き線形表現性、最適化課題、量子ハードウェアノイズに対する鋭敏感といった固有の制限によって妨げられている。
この研究は、これらの障害を克服するために設計されたスケーラブルで堅牢なハイブリッド量子古典アーキテクチャであるVQC-MLPNetを導入している。
論文 参考訳(メタデータ) (2025-06-12T01:38:15Z) - Differentiable Quantum Architecture Search in Quantum-Enhanced Neural Network Parameter Generation [4.358861563008207]
量子ニューラルネットワーク(QNN)は、経験的にも理論的にも有望であることを示している。
ハードウェアの欠陥と量子デバイスへの限られたアクセスは、実用的な課題となる。
微分可能最適化を用いた自動解法を提案する。
論文 参考訳(メタデータ) (2025-05-13T19:01:08Z) - Quantum Adaptive Self-Attention for Quantum Transformer Models [0.0]
本稿では,量子アテンション機構を備えた古典的トランスフォーマーモデルを強化するハイブリッドアーキテクチャであるQuantum Adaptive Self-Attention (QASA)を提案する。
QASAはドット積の注意をパラメータ化量子回路(PQC)に置き換え、量子ヒルベルト空間におけるトークン間の関係を適応的に捉える。
合成時系列タスクの実験により、QASAは標準変圧器と古典的変圧器の双方と比較して、より高速な収束と優れた一般化を実現することが示された。
論文 参考訳(メタデータ) (2025-04-05T02:52:37Z) - A Survey of Quantum Transformers: Architectures, Challenges and Outlooks [82.4736481748099]
量子変換器は古典変換器の表現力と量子コンピューティングの計算上の利点を統合する。
2022年以降、この地域の研究は急速に拡大し、様々な技術パラダイムや初期の応用がもたらされた。
本稿では,量子トランスモデルの包括的,体系的,詳細な調査を行う。
論文 参考訳(メタデータ) (2025-04-04T05:40:18Z) - Efficient Learning for Linear Properties of Bounded-Gate Quantum Circuits [62.46800898243033]
量子学習理論の最近の進歩は、様々な古典的な入力によって生成された測定データから、大きな量子ビット回路の線形特性を効率的に学習できるのか?
我々は、小さな予測誤差を達成するためには、$d$で線形にスケーリングするサンプルの複雑さが必要であることを証明し、それに対応する計算複雑性は、dで指数関数的にスケールする可能性がある。
そこで本研究では,古典的影と三角展開を利用したカーネルベースの手法を提案し,予測精度と計算オーバーヘッドとのトレードオフを制御可能とした。
論文 参考訳(メタデータ) (2024-08-22T08:21:28Z) - A Quantum-Classical Collaborative Training Architecture Based on Quantum
State Fidelity [50.387179833629254]
我々は,コ・テンク (co-TenQu) と呼ばれる古典量子アーキテクチャを導入する。
Co-TenQuは古典的なディープニューラルネットワークを41.72%まで向上させる。
他の量子ベースの手法よりも1.9倍も優れており、70.59%少ない量子ビットを使用しながら、同様の精度を達成している。
論文 参考訳(メタデータ) (2024-02-23T14:09:41Z) - Pre-training Tensor-Train Networks Facilitates Machine Learning with Variational Quantum Circuits [70.97518416003358]
変分量子回路(VQC)は、ノイズの多い中間スケール量子(NISQ)デバイス上での量子機械学習を約束する。
テンソルトレインネットワーク(TTN)はVQC表現と一般化を向上させることができるが、結果として得られるハイブリッドモデルであるTTN-VQCは、Polyak-Lojasiewicz(PL)条件による最適化の課題に直面している。
この課題を軽減するために,プレトレーニングTTNモデルとVQCを組み合わせたPre+TTN-VQCを導入する。
論文 参考訳(メタデータ) (2023-05-18T03:08:18Z) - Synergy Between Quantum Circuits and Tensor Networks: Short-cutting the
Race to Practical Quantum Advantage [43.3054117987806]
本稿では,量子回路の初期化を最適化するために,古典計算資源を利用するスケーラブルな手法を提案する。
本手法は, PQCのトレーニング性, 性能を, 様々な問題において著しく向上させることを示す。
古典的コンピュータを用いて限られた量子資源を増強する手法を実証することにより、量子コンピューティングにおける量子と量子に着想を得たモデル間の相乗効果を実証する。
論文 参考訳(メタデータ) (2022-08-29T15:24:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。