論文の概要: Quantum Temporal Fusion Transformer
- arxiv url: http://arxiv.org/abs/2508.04048v1
- Date: Wed, 06 Aug 2025 03:21:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.525609
- Title: Quantum Temporal Fusion Transformer
- Title(参考訳): 量子時間核融合変換器
- Authors: Krishnakanta Barik, Goutam Paul,
- Abstract要約: TFT(Temporal Fusion Transformer)は、マルチホライゾン時系列予測用に設計された、最先端の注目ベースのディープニューラルネットワークアーキテクチャである。
本稿では,古典的フレームワークの能力を拡張した量子拡張型ハイブリッド量子古典アーキテクチャである量子時間核融合変換器(QTFT)を提案する。
- 参考スコア(独自算出の注目度): 4.757470449749876
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Temporal Fusion Transformer (TFT), proposed by Lim et al. [\textit{International Journal of Forecasting}, 2021], is a state-of-the-art attention-based deep neural network architecture specifically designed for multi-horizon time series forecasting. It has demonstrated significant performance improvements over existing benchmarks. In this work, we propose a Quantum Temporal Fusion Transformer (QTFT), a quantum-enhanced hybrid quantum-classical architecture that extends the capabilities of the classical TFT framework. Our results demonstrate that QTFT is successfully trained on the forecasting datasets and is capable of accurately predicting future values. In particular, our experimental results display that in certain test cases, the model outperforms its classical counterpart in terms of both training and test loss, while in the remaining cases, it achieves comparable performance. A key advantage of our approach lies in its foundation on a variational quantum algorithm, enabling implementation on current noisy intermediate-scale quantum (NISQ) devices without strict requirements on the number of qubits or circuit depth.
- Abstract(参考訳): Lim et al [\textit{International Journal of Forecasting}, 2021]によって提唱されたTFTは、マルチホライゾン時系列予測に特化して設計された、最先端の注目に基づくディープニューラルネットワークアーキテクチャである。
既存のベンチマークよりも大幅にパフォーマンスが向上した。
本研究では,古典的TFTフレームワークの機能を拡張する量子拡張型ハイブリッド量子古典アーキテクチャである量子時間核融合変換器(QTFT)を提案する。
以上の結果から,QTFTは予測データセットのトレーニングに成功し,将来的な予測を正確に行うことが可能であることが示唆された。
特に,実験結果から,テストケースではトレーニングとテスト損失の両面で,モデルが従来のモデルよりも優れており,残りのケースでは同等のパフォーマンスを実現していることが明らかとなった。
このアプローチの鍵となる利点は変動量子アルゴリズムの基礎にあり、量子ビット数や回路深さの厳密な要件なしに現在のノイズの多い中間規模量子(NISQ)デバイスの実装を可能にすることである。
関連論文リスト
- Entanglement for Pattern Learning in Temporal Data with Logarithmic Complexity: Benchmarking on IBM Quantum Hardware [1.2277343096128712]
時系列予測は、気候モデリングから分子動力学まで、科学的および技術的領域の基礎となっている。
時間的依存関係を学習するために、絡み合いに基づくパラメータ化量子回路を利用する量子ネイティブ時系列予測フレームワークを提案する。
数値天気予報に使用される測地的高さ場を含む,合成および実世界のデータセットの古典的モデルに対して,QTSをベンチマークする。
論文 参考訳(メタデータ) (2025-05-30T12:16:08Z) - Quantum-Enhanced Channel Mixing in RWKV Models for Time Series Forecasting [0.0]
ニューラルシークエンスモデリングの最近の進歩は、RWKVのようなアーキテクチャにつながり、リカレントスタイルの時間混合とフィードフォワードチャネルミキシングを組み合わせることで、効率的なロングコンテキスト処理を可能にする。
本稿では、標準フィードフォワードネットワーク(FFN)を部分的に変分量子回路(VQC)に置き換えるRWKVモデルのハイブリッド量子ピース拡張であるQuantumRWKVを提案する。
量子コンポーネントは、PennyLaneフレームワークを介してエンドツーエンドの微分性を保ちながら、非線形表現能力を高めるように設計されている。
論文 参考訳(メタデータ) (2025-05-18T02:19:30Z) - Toward Practical Quantum Machine Learning: A Novel Hybrid Quantum LSTM for Fraud Detection [0.1398098625978622]
本稿では,不正検出のためのハイブリッド量子古典ニューラルネットワークアーキテクチャを提案する。
重畳や絡み合いなどの量子現象を活用することで、我々のモデルはシーケンシャルトランザクションデータの特徴表現を強化する。
その結果,従来のLSTMベースラインと比較して,精度,精度,リコール,F1スコアの競争力の向上が示された。
論文 参考訳(メタデータ) (2025-04-30T19:09:12Z) - Hybrid Quantum Recurrent Neural Network For Remaining Useful Life Prediction [67.410870290301]
本稿では、量子長短期記憶層と古典的な高密度層を組み合わせたハイブリッド量子リカレントニューラルネットワークフレームワークを提案する。
実験の結果、トレーニング可能なパラメータが少ないにもかかわらず、Hybrid Quantum Recurrent Neural Networkは、リカレントニューラルネットワークよりも最大5%改善できることがわかった。
論文 参考訳(メタデータ) (2025-04-29T14:41:41Z) - Quantum Adaptive Self-Attention for Quantum Transformer Models [0.0]
本稿では,量子アテンション機構を備えた古典的トランスフォーマーモデルを強化するハイブリッドアーキテクチャであるQuantum Adaptive Self-Attention (QASA)を提案する。
QASAはドット積の注意をパラメータ化量子回路(PQC)に置き換え、量子ヒルベルト空間におけるトークン間の関係を適応的に捉える。
合成時系列タスクの実験により、QASAは標準変圧器と古典的変圧器の双方と比較して、より高速な収束と優れた一般化を実現することが示された。
論文 参考訳(メタデータ) (2025-04-05T02:52:37Z) - Learning to Program Variational Quantum Circuits with Fast Weights [3.6881738506505988]
本稿では,時間的あるいはシーケンシャルな学習課題に対する解決法として,QFWP(Quantum Fast Weight Programmers)を提案する。
提案したQFWPモデルは、量子リカレントニューラルネットワークの使用を必要とせずに、時間的依存関係の学習を実現する。
本研究では, 時系列予測とRLタスクにおいて, 提案したQFWPモデルの有効性を示す数値シミュレーションを行った。
論文 参考訳(メタデータ) (2024-02-27T18:53:18Z) - A Quantum-Classical Collaborative Training Architecture Based on Quantum
State Fidelity [50.387179833629254]
我々は,コ・テンク (co-TenQu) と呼ばれる古典量子アーキテクチャを導入する。
Co-TenQuは古典的なディープニューラルネットワークを41.72%まで向上させる。
他の量子ベースの手法よりも1.9倍も優れており、70.59%少ない量子ビットを使用しながら、同様の精度を達成している。
論文 参考訳(メタデータ) (2024-02-23T14:09:41Z) - Federated Quantum Long Short-term Memory (FedQLSTM) [58.50321380769256]
量子フェデレーション学習(QFL)は、量子機械学習(QML)モデルを使用して、複数のクライアント間の協調学習を容易にする。
関数の近似に時間的データを利用するQFLフレームワークの開発に前向きな作業は行われていない。
量子長短期メモリ(QLSTM)モデルと時間データを統合する新しいQFLフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-21T21:40:47Z) - Pre-training Tensor-Train Networks Facilitates Machine Learning with Variational Quantum Circuits [70.97518416003358]
変分量子回路(VQC)は、ノイズの多い中間スケール量子(NISQ)デバイス上での量子機械学習を約束する。
テンソルトレインネットワーク(TTN)はVQC表現と一般化を向上させることができるが、結果として得られるハイブリッドモデルであるTTN-VQCは、Polyak-Lojasiewicz(PL)条件による最適化の課題に直面している。
この課題を軽減するために,プレトレーニングTTNモデルとVQCを組み合わせたPre+TTN-VQCを導入する。
論文 参考訳(メタデータ) (2023-05-18T03:08:18Z) - A Framework for Demonstrating Practical Quantum Advantage: Racing
Quantum against Classical Generative Models [62.997667081978825]
生成モデルの一般化性能を評価するためのフレームワークを構築した。
古典的および量子生成モデル間の実用的量子優位性(PQA)に対する最初の比較レースを確立する。
以上の結果から,QCBMは,他の最先端の古典的生成モデルよりも,データ制限方式の方が効率的であることが示唆された。
論文 参考訳(メタデータ) (2023-03-27T22:48:28Z) - When BERT Meets Quantum Temporal Convolution Learning for Text
Classification in Heterogeneous Computing [75.75419308975746]
本研究は,変分量子回路に基づく垂直連合学習アーキテクチャを提案し,テキスト分類のための量子化事前学習BERTモデルの競争性能を実証する。
目的分類実験により,提案したBERT-QTCモデルにより,SnipsおよびATIS音声言語データセットの競合実験結果が得られた。
論文 参考訳(メタデータ) (2022-02-17T09:55:21Z) - Tensor Network Quantum Virtual Machine for Simulating Quantum Circuits
at Exascale [57.84751206630535]
本稿では,E-scale ACCelerator(XACC)フレームワークにおける量子回路シミュレーションバックエンドとして機能する量子仮想マシン(TNQVM)の近代化版を提案する。
新バージョンは汎用的でスケーラブルなネットワーク処理ライブラリであるExaTNをベースにしており、複数の量子回路シミュレータを提供している。
ポータブルなXACC量子プロセッサとスケーラブルなExaTNバックエンドを組み合わせることで、ラップトップから将来のエクサスケールプラットフォームにスケール可能なエンドツーエンドの仮想開発環境を導入します。
論文 参考訳(メタデータ) (2021-04-21T13:26:42Z) - Quantum Long Short-Term Memory [3.675884635364471]
LSTM(Long Short-term memory)は、シーケンスおよび時間依存性データモデリングのためのリカレントニューラルネットワーク(RNN)である。
本稿では,QLSTMを疑似化したLSTMのハイブリッド量子古典モデルを提案する。
我々の研究は、ノイズの多い中間スケール量子(NISQ)デバイス上でのシーケンスモデリングのための機械学習アルゴリズムの実装への道を開いた。
論文 参考訳(メタデータ) (2020-09-03T16:41:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。