論文の概要: QuaRK: A Quantum Reservoir Kernel for Time Series Learning
- arxiv url: http://arxiv.org/abs/2602.13531v1
- Date: Sat, 14 Feb 2026 00:04:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.132692
- Title: QuaRK: A Quantum Reservoir Kernel for Time Series Learning
- Title(参考訳): QuaRK: 時系列学習のための量子貯留層カーネル
- Authors: Abdallah Aaraba, Soumaya Cherkaoui, Ola Ahmad, Shengrui Wang,
- Abstract要約: QuaRKは、ハードウェアリアリスティックな量子貯水池デデューサとカーネルベースの読み出しスキームを結合したエンドツーエンドフレームワークである。
我々は、時間依存データに対する学習理論の保証を提供し、設計と資源選択を有限サンプル性能にリンクする。
- 参考スコア(独自算出の注目度): 11.195918728130088
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum reservoir computing offers a promising route for time series learning by modelling sequential data via rich quantum dynamics while the only training required happens at the level of a lightweight classical readout. However, studies featuring efficient and implementable quantum reservoir architectures along with model learning guarantees remain scarce in the literature. To close this gap, we introduce QuaRK, an end-to-end framework that couples a hardware-realistic quantum reservoir featurizer with a kernel-based readout scheme. Given a sequence of sample points, the reservoir injects the points one after the other to yield a compact feature vector from efficiently measured k-local observables using classical shadow tomography, after which a classical kernel-based readout learns the target mapping with explicit regularization and fast optimization. The resulting pipeline exposes clear computational knobs -- circuit width and depth as well as the measurement budget -- while preserving the flexibility of kernel methods to model nonlinear temporal functionals and being scalable to high-dimensional data. We further provide learning-theoretic generalization guarantees for dependent temporal data, linking design and resource choices to finite-sample performance, thereby offering principled guidance for building reliable temporal learners. Empirical experiments validate QuaRK and illustrate the predicted interpolation and generalization behaviours on synthetic beta-mixing time series tasks.
- Abstract(参考訳): 量子貯水池コンピューティングは、リッチな量子力学を介してシーケンシャルなデータをモデル化することで、時系列学習のための有望な経路を提供する。
しかし、効率的で実装可能な量子貯水池アーキテクチャとモデル学習の保証を特徴とする研究は、文献にはほとんど残っていない。
このギャップを埋めるために、ハードウェアリアリスティックな量子貯水池デファクチャリザとカーネルベースの読み出しスキームを結合したエンドツーエンドフレームワークであるQuaRKを紹介する。
サンプル点の列が与えられた後、貯水池は点を次々と注入し、古典的なシャドウトモグラフィーを用いて効率的に測定されたk-局所可観測物からコンパクトな特徴ベクトルを生成し、その後、古典的なカーネルベースの読み出しは、明示的な正規化と高速な最適化でターゲットマッピングを学習する。
結果として得られるパイプラインは、回路幅と深さと測定予算の明確な計算ノブを公開し、非線形時間関数をモデル化するためのカーネルメソッドの柔軟性を保ち、高次元データにスケーラブルである。
さらに, 時間依存データに対する学習理論の一般化保証, 設計と資源選択を有限サンプル性能にリンクし, 信頼性のある時間学習者構築のための原則的ガイダンスを提供する。
実験実験はQuaRKを検証し、合成β混合時系列タスクにおける予測補間と一般化の挙動を説明する。
関連論文リスト
- Minimal Quantum Reservoirs with Hamiltonian Encoding [72.27323884094953]
ハミルトニアン符号化に基づく量子貯水池計算のための最小限のアーキテクチャについて検討する。
このアプローチは、一般的に量子機械学習に関連する実験的なオーバーヘッドの多くを回避します。
論文 参考訳(メタデータ) (2025-05-28T16:50:05Z) - Unraveling Quantum Environments: Transformer-Assisted Learning in Lindblad Dynamics [0.0]
本稿では,量子システムにおける時間依存散逸率を推定するためのTransformerベースの機械学習フレームワークを提案する。
複雑性を増大させるオープン量子モデルの階層化に対する我々のアプローチの有効性を実証する。
我々の結果は、現代の機械学習ツールが、オープン量子システムにおける未知の環境を特定するためのスケーラブルでデータ駆動の代替手段として役立つことを示唆している。
論文 参考訳(メタデータ) (2025-05-11T10:18:19Z) - Enhancing Foundation Models for Time Series Forecasting via Wavelet-based Tokenization [74.3339999119713]
我々はウェーブレットベースのトークンーザを開発し、時間局所化周波数の空間でモデルが複雑な表現を直接学習できるようにする。
提案手法は,まず入力時系列をスケール・分解し,次に閾値を設定し,ウェーブレット係数を定量化し,最後に予測水平方向の係数を予測する自己回帰モデルを事前学習する。
論文 参考訳(メタデータ) (2024-12-06T18:22:59Z) - Memory-Augmented Hybrid Quantum Reservoir Computing [0.0]
本稿では、量子計測の古典的後処理を通じてメモリを実装するハイブリッド量子古典的アプローチを提案する。
我々は、完全に連結されたIsingモデルとRydberg原子配列の2つの物理プラットフォーム上でモデルをテストした。
論文 参考訳(メタデータ) (2024-09-15T22:44:09Z) - Self-STORM: Deep Unrolled Self-Supervised Learning for Super-Resolution Microscopy [55.2480439325792]
我々は、シーケンス固有のモデルベースのオートエンコーダをトレーニングすることで、そのようなデータの必要性を軽減する、深層無学習の自己教師付き学習を導入する。
提案手法は, 監視対象の性能を超過する。
論文 参考訳(メタデータ) (2024-03-25T17:40:32Z) - Federated Quantum Long Short-term Memory (FedQLSTM) [58.50321380769256]
量子フェデレーション学習(QFL)は、量子機械学習(QML)モデルを使用して、複数のクライアント間の協調学習を容易にする。
関数の近似に時間的データを利用するQFLフレームワークの開発に前向きな作業は行われていない。
量子長短期メモリ(QLSTM)モデルと時間データを統合する新しいQFLフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-21T21:40:47Z) - OpenSTL: A Comprehensive Benchmark of Spatio-Temporal Predictive
Learning [67.07363529640784]
提案するOpenSTLは,一般的なアプローチを再帰的モデルと再帰的モデルに分類する。
我々は, 合成移動物体軌道, 人間の動き, 運転シーン, 交通流, 天気予報など, さまざまな領域にわたるデータセットの標準評価を行う。
リカレントフリーモデルは、リカレントモデルよりも効率と性能のバランスが良いことがわかった。
論文 参考訳(メタデータ) (2023-06-20T03:02:14Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Quantum evolution kernel : Machine learning on graphs with programmable
arrays of qubits [0.0]
本稿では,量子系の時間進化に基づいて,グラフ構造データ間の類似度を測定する手法を提案する。
システムのハミルトニアンにおける入力グラフの位相を符号化することにより、進化はデータの重要な特徴を保持する測定サンプルを生成する。
本手法は,典型的なベンチマークデータセット上での標準グラフカーネルと比較して性能がよいことを示す。
論文 参考訳(メタデータ) (2021-07-07T14:25:18Z) - Physics Informed Deep Kernel Learning [24.033468062984458]
物理インフォームドディープカーネル学習(PI-DKL)は、遅延源を持つ微分方程式で表される物理知識を利用する。
効率的かつ効果的な推論のために、潜伏変数を疎外し、崩壊したモデルエビデンスローバウンド(ELBO)を導出する。
論文 参考訳(メタデータ) (2020-06-08T22:43:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。