論文の概要: Benchmarking Quantum and Classical Sequential Models for Urban Telecommunication Forecasting
- arxiv url: http://arxiv.org/abs/2508.04488v1
- Date: Wed, 06 Aug 2025 14:37:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.764432
- Title: Benchmarking Quantum and Classical Sequential Models for Urban Telecommunication Forecasting
- Title(参考訳): 都市電気通信予測のためのベンチマーク量子および古典的シーケンスモデル
- Authors: Chi-Sheng Chen, Samuel Yen-Chi Chen, Yun-Cheng Tsai,
- Abstract要約: 我々は、古典的および量子的インスパイアされたシーケンシャルモデルの性能を、受信したSMSのアクティビティを予測するために評価する。
以上の結果から,異なるモデルが配列長に対して様々な感度を示すことが示唆され,量子的拡張が普遍的に有利ではないことが示唆された。
- 参考スコア(独自算出の注目度): 2.777785884503825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this study, we evaluate the performance of classical and quantum-inspired sequential models in forecasting univariate time series of incoming SMS activity (SMS-in) using the Milan Telecommunication Activity Dataset. Due to data completeness limitations, we focus exclusively on the SMS-in signal for each spatial grid cell. We compare five models, LSTM (baseline), Quantum LSTM (QLSTM), Quantum Adaptive Self-Attention (QASA), Quantum Receptance Weighted Key-Value (QRWKV), and Quantum Fast Weight Programmers (QFWP), under varying input sequence lengths (4, 8, 12, 16, 32 and 64). All models are trained to predict the next 10-minute SMS-in value based solely on historical values within a given sequence window. Our findings indicate that different models exhibit varying sensitivities to sequence length, suggesting that quantum enhancements are not universally advantageous. Rather, the effectiveness of quantum modules is highly dependent on the specific task and architectural design, reflecting inherent trade-offs among model size, parameterization strategies, and temporal modeling capabilities.
- Abstract(参考訳): 本研究では,ミラノテレコミュニケーション活動データセットを用いて,SMS活動の単変量時系列(SMS-in)予測における古典的および量子的インスピレーション付きシーケンシャルモデルの性能を評価する。
データ完全性に制限があるため、各空間グリッドセルのSMS受信信号にのみ焦点をあてる。
LSTM(ベースライン)、Quantum LSTM(QLSTM)、Quantum Adaptive Self-Attention(QASA)、Quantum Receptance Weighted Key-Value(QRWKV)、Quantum Fast Weight Programmers(QFWP)の5つのモデルを比較した。
すべてのモデルは、与えられたシーケンスウィンドウ内の履歴値のみに基づいて、次の10分間のSMS-in値を予測するようにトレーニングされている。
以上の結果から,異なるモデルが配列長に対して様々な感度を示すことが示唆され,量子的拡張が普遍的に有利ではないことが示唆された。
むしろ、量子モジュールの有効性は特定のタスクやアーキテクチャ設計に大きく依存しており、モデルのサイズ、パラメータ化戦略、時間的モデリング能力に固有のトレードオフを反映している。
関連論文リスト
- Quantum Temporal Fusion Transformer [4.757470449749876]
TFT(Temporal Fusion Transformer)は、マルチホライゾン時系列予測用に設計された、最先端の注目ベースのディープニューラルネットワークアーキテクチャである。
本稿では,古典的フレームワークの能力を拡張した量子拡張型ハイブリッド量子古典アーキテクチャである量子時間核融合変換器(QTFT)を提案する。
論文 参考訳(メタデータ) (2025-08-06T03:21:20Z) - Calibration of Quantum Devices via Robust Statistical Methods [45.464983015777314]
量子パラメータ学習の最先端技術に対するベイズ推論の高度な統計的手法を数値解析する。
既存のアプローチ、すなわち多モード性および高次元性において、これらのアプローチの利点を示す。
我々の発見は、オープン量子システムの力学を学習する量子キャラクタリゼーションの課題に応用できる。
論文 参考訳(メタデータ) (2025-07-09T15:22:17Z) - Toward Practical Quantum Machine Learning: A Novel Hybrid Quantum LSTM for Fraud Detection [0.1398098625978622]
本稿では,不正検出のためのハイブリッド量子古典ニューラルネットワークアーキテクチャを提案する。
重畳や絡み合いなどの量子現象を活用することで、我々のモデルはシーケンシャルトランザクションデータの特徴表現を強化する。
その結果,従来のLSTMベースラインと比較して,精度,精度,リコール,F1スコアの競争力の向上が示された。
論文 参考訳(メタデータ) (2025-04-30T19:09:12Z) - GroverGPT: A Large Language Model with 8 Billion Parameters for Quantum Searching [43.496857395654764]
量子チューリングマシンの出力をシミュレートするために,大規模言語モデルを活用する可能性について検討する。
特殊なモデルであるGroverGPTは、15兆以上のトークンでトレーニングされた。
OpenAIのGPT-4o(45%の精度)を一貫して上回り、6ビットと10ビットのデータセットでほぼ100%の精度を達成した。
また、3から6キュービットのデータで訓練すると、20キュービットを超えるシステムに対して95%を超える精度で強い一般化を示した。
論文 参考訳(メタデータ) (2024-12-30T20:23:10Z) - Quantum Kernel-Based Long Short-term Memory for Climate Time-Series Forecasting [0.24739484546803336]
本稿では,量子カーネル法を従来のLSTMアーキテクチャに統合したQK-LSTM(Quantum Kernel-Based Long short-Memory)ネットワークを提案する。
QK-LSTMは、トレーニング可能なパラメータが少ない複雑な非線形依存と時間ダイナミクスをキャプチャする。
論文 参考訳(メタデータ) (2024-12-12T01:16:52Z) - Quantum Kernel-Based Long Short-term Memory [0.30723404270319693]
本稿では,Quantum Kernel-Based Long Short-Term Memory (QK-LSTM) ネットワークを導入する。
この量子化アーキテクチャは、効率的な収束、ロバストな損失最小化、モデルコンパクト性を示す。
ベンチマークの結果,QK-LSTMは従来のLSTMモデルと同等の性能を示すが,パラメータは少ない。
論文 参考訳(メタデータ) (2024-11-20T11:39:30Z) - Q-S5: Towards Quantized State Space Models [41.94295877935867]
状態空間モデル(SSM)はトランスフォーマーの強力な代替品として登場した。
本稿では,S5モデルに対する量子化の効果について検討し,そのモデル性能への影響について考察する。
論文 参考訳(メタデータ) (2024-06-13T09:53:24Z) - Federated Quantum Long Short-term Memory (FedQLSTM) [58.50321380769256]
量子フェデレーション学習(QFL)は、量子機械学習(QML)モデルを使用して、複数のクライアント間の協調学習を容易にする。
関数の近似に時間的データを利用するQFLフレームワークの開発に前向きな作業は行われていない。
量子長短期メモリ(QLSTM)モデルと時間データを統合する新しいQFLフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-21T21:40:47Z) - QKSAN: A Quantum Kernel Self-Attention Network [53.96779043113156]
量子カーネル法(Quantum Kernel Methods, QKM)のデータ表現能力とSAMの効率的な情報抽出能力を組み合わせた量子カーネル自己認識機構(Quantum Kernel Self-Attention Mechanism, QKSAM)を導入する。
量子カーネル自己保持ネットワーク(QKSAN)フレームワークは,DMP(Dederred Measurement Principle)と条件測定技術を巧みに組み込んだQKSAMに基づいて提案されている。
4つのQKSANサブモデルはPennyLaneとIBM Qiskitプラットフォームにデプロイされ、MNISTとFashion MNISTのバイナリ分類を実行する。
論文 参考訳(メタデータ) (2023-08-25T15:08:19Z) - Pre-training Tensor-Train Networks Facilitates Machine Learning with Variational Quantum Circuits [70.97518416003358]
変分量子回路(VQC)は、ノイズの多い中間スケール量子(NISQ)デバイス上での量子機械学習を約束する。
テンソルトレインネットワーク(TTN)はVQC表現と一般化を向上させることができるが、結果として得られるハイブリッドモデルであるTTN-VQCは、Polyak-Lojasiewicz(PL)条件による最適化の課題に直面している。
この課題を軽減するために,プレトレーニングTTNモデルとVQCを組み合わせたPre+TTN-VQCを導入する。
論文 参考訳(メタデータ) (2023-05-18T03:08:18Z) - A Framework for Demonstrating Practical Quantum Advantage: Racing
Quantum against Classical Generative Models [62.997667081978825]
生成モデルの一般化性能を評価するためのフレームワークを構築した。
古典的および量子生成モデル間の実用的量子優位性(PQA)に対する最初の比較レースを確立する。
以上の結果から,QCBMは,他の最先端の古典的生成モデルよりも,データ制限方式の方が効率的であることが示唆された。
論文 参考訳(メタデータ) (2023-03-27T22:48:28Z) - A performance characterization of quantum generative models [35.974070202997176]
量子生成モデリングに使用される量子回路を比較する。
2つの一般的なトレーニング手法を用いてデータセットの確率分布を学習する。
確率分布のコプラを学習する離散アーキテクチャの変種が、他のすべての手法より優れていることを実証的に見出した。
論文 参考訳(メタデータ) (2023-01-23T11:00:29Z) - When BERT Meets Quantum Temporal Convolution Learning for Text
Classification in Heterogeneous Computing [75.75419308975746]
本研究は,変分量子回路に基づく垂直連合学習アーキテクチャを提案し,テキスト分類のための量子化事前学習BERTモデルの競争性能を実証する。
目的分類実験により,提案したBERT-QTCモデルにより,SnipsおよびATIS音声言語データセットの競合実験結果が得られた。
論文 参考訳(メタデータ) (2022-02-17T09:55:21Z) - Quantum Long Short-Term Memory [3.675884635364471]
LSTM(Long Short-term memory)は、シーケンスおよび時間依存性データモデリングのためのリカレントニューラルネットワーク(RNN)である。
本稿では,QLSTMを疑似化したLSTMのハイブリッド量子古典モデルを提案する。
我々の研究は、ノイズの多い中間スケール量子(NISQ)デバイス上でのシーケンスモデリングのための機械学習アルゴリズムの実装への道を開いた。
論文 参考訳(メタデータ) (2020-09-03T16:41:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。