論文の概要: QKAN-LSTM: Quantum-inspired Kolmogorov-Arnold Long Short-term Memory
- arxiv url: http://arxiv.org/abs/2512.05049v1
- Date: Thu, 04 Dec 2025 18:03:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:46.310502
- Title: QKAN-LSTM: Quantum-inspired Kolmogorov-Arnold Long Short-term Memory
- Title(参考訳): QKAN-LSTM:量子インスパイアされたKolmogorov-Arnold長期記憶
- Authors: Yu-Chao Hsu, Jiun-Cheng Jiang, Chun-Hua Lin, Kuo-Chung Peng, Nan-Yow Chen, Samuel Yen-Chi Chen, En-Jui Kuo, Hsi-Sheng Goan,
- Abstract要約: 長短期記憶(LSTM)モデルは、都市電気通信予測のような領域における逐次モデリングタスクの中心である。
我々はQKAN-LSTM(Quantum-inspired Kolmogorov-Arnold Long Short-Term Memory)を提案する。
QKAN-LSTMは、Data Re-Uploading ActivationモジュールをLSTMのゲーティング構造に統合する。
- 参考スコア(独自算出の注目度): 11.996286932948124
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Long short-term memory (LSTM) models are a particular type of recurrent neural networks (RNNs) that are central to sequential modeling tasks in domains such as urban telecommunication forecasting, where temporal correlations and nonlinear dependencies dominate. However, conventional LSTMs suffer from high parameter redundancy and limited nonlinear expressivity. In this work, we propose the Quantum-inspired Kolmogorov-Arnold Long Short-Term Memory (QKAN-LSTM), which integrates Data Re-Uploading Activation (DARUAN) modules into the gating structure of LSTMs. Each DARUAN acts as a quantum variational activation function (QVAF), enhancing frequency adaptability and enabling an exponentially enriched spectral representation without multi-qubit entanglement. The resulting architecture preserves quantum-level expressivity while remaining fully executable on classical hardware. Empirical evaluations on three datasets, Damped Simple Harmonic Motion, Bessel Function, and Urban Telecommunication, demonstrate that QKAN-LSTM achieves superior predictive accuracy and generalization with a 79% reduction in trainable parameters compared to classical LSTMs. We extend the framework to the Jiang-Huang-Chen-Goan Network (JHCG Net), which generalizes KAN to encoder-decoder structures, and then further use QKAN to realize the latent KAN, thereby creating a Hybrid QKAN (HQKAN) for hierarchical representation learning. The proposed HQKAN-LSTM thus provides a scalable and interpretable pathway toward quantum-inspired sequential modeling in real-world data environments.
- Abstract(参考訳): 長短期記憶(LSTM)モデルは、時間的相関と非依存が支配される都市電気通信予測のような領域における逐次モデリングタスクの中心となる、特定のタイプのリカレントニューラルネットワーク(RNN)である。
しかし、従来のLSTMは高いパラメータ冗長性と限られた非線形表現性に悩まされている。
本研究では,DRUAN(Data Re-Uploading Activation)モジュールをLSTMのゲーティング構造に統合した量子インスピレーション型Kolmogorov-Arnold Long Short-Term Memory (QKAN-LSTM)を提案する。
それぞれのDARUANは量子変動活性化関数(QVAF)として機能し、周波数適応性を高め、マルチビットの絡み合いのない指数関数的にリッチなスペクトル表現を可能にする。
結果として生じるアーキテクチャは、古典的なハードウェア上で完全に実行可能でありながら、量子レベルの表現性を保っている。
実験により,QKAN-LSTMは従来のLSTMに比べて79%のトレーニング可能なパラメータを減少させ,予測精度と一般化に優れることを示した。
我々は,このフレームワークを,Kanをエンコーダ・デコーダ構造に一般化したJHCGネットワークに拡張し,さらにQKANを用いて潜在kanを実現し,階層的表現学習のためのハイブリッドQKAN(HQKAN)を作成する。
提案したHQKAN-LSTMは、現実世界のデータ環境における量子インスパイアされたシーケンシャルモデリングへのスケーラブルで解釈可能な経路を提供する。
関連論文リスト
- Learning to Dissipate Energy in Oscillatory State-Space Models [51.98491034847041]
状態空間モデル (SSM) はシーケンス学習のためのネットワークのクラスである。
我々は,D-LinOSSがLinOSSの手法を長距離学習タスクで一貫して上回っていることを示す。
論文 参考訳(メタデータ) (2025-05-17T23:15:17Z) - Federated Quantum-Train Long Short-Term Memory for Gravitational Wave Signal [3.360429911727189]
本稿では,QT(Quantum-Train)方法論とLong Short-Term Memory(LSTM)ネットワークを組み合わせた新しいフレームワークであるFederated QT-LSTMについて述べる。
トレーニング中に量子ニューラルネットワーク(QNN)を利用して古典的なLSTMモデルパラメータを生成することで、このフレームワークはモデル圧縮、スケーラビリティ、計算効率の課題を効果的に解決する。
論文 参考訳(メタデータ) (2025-03-20T11:34:13Z) - Quantum Kernel-Based Long Short-term Memory [0.30723404270319693]
本稿では,Quantum Kernel-Based Long Short-Term Memory (QK-LSTM) ネットワークを導入する。
この量子化アーキテクチャは、効率的な収束、ロバストな損失最小化、モデルコンパクト性を示す。
ベンチマークの結果,QK-LSTMは従来のLSTMモデルと同等の性能を示すが,パラメータは少ない。
論文 参考訳(メタデータ) (2024-11-20T11:39:30Z) - Implementation Guidelines and Innovations in Quantum LSTM Networks [2.938337278931738]
本稿では,従来のLSTMネットワークに量子コンピューティングの原理を統合する量子LSTMモデルの理論的解析と実装計画を提案する。
シーケンシャルなデータ処理を強化するための実際のアーキテクチャとその実践的効果は、今後の研究で開発され、実証される。
論文 参考訳(メタデータ) (2024-06-13T10:26:14Z) - Federated Quantum Long Short-term Memory (FedQLSTM) [58.50321380769256]
量子フェデレーション学習(QFL)は、量子機械学習(QML)モデルを使用して、複数のクライアント間の協調学習を容易にする。
関数の近似に時間的データを利用するQFLフレームワークの開発に前向きな作業は行われていない。
量子長短期メモリ(QLSTM)モデルと時間データを統合する新しいQFLフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-21T21:40:47Z) - Sparse Modular Activation for Efficient Sequence Modeling [94.11125833685583]
線形状態空間モデルと自己アテンション機構を組み合わせた最近のモデルでは、様々なシーケンスモデリングタスクにおいて顕著な結果が示されている。
現在のアプローチでは、アテンションモジュールを静的かつ均一に入力シーケンスのすべての要素に適用し、最適以下の品質効率のトレードオフをもたらす。
SMA(Sparse Modular Activation)は,ニューラルネットワークが配列要素のサブモジュールを異なる方法でスパースに活性化する機構である。
論文 参考訳(メタデータ) (2023-06-19T23:10:02Z) - Towards Energy-Efficient, Low-Latency and Accurate Spiking LSTMs [1.7969777786551424]
Spiking Neural Networks(SNN)は、複雑なタスクのための魅力的なテンポラルコンピューティングパラダイムビジョンとして登場した。
そこで本研究では,新規な長期記憶ネットワーク(LSTM)の学習フレームワークを提案する。
rev-to-SNN変換フレームワーク、続いてSNNトレーニング。
我々は、時間的M、Google Speech Commands(GSC)データセット、異なるLSTMアーキテクチャ上のUCIスマートフォンなど、逐次学習タスクに関するフレームワークを評価した。
論文 参考訳(メタデータ) (2022-10-23T04:10:27Z) - Bayesian Neural Network Language Modeling for Speech Recognition [59.681758762712754]
長期記憶リカレントニューラルネットワーク(LSTM-RNN)とトランスフォーマーで表される最先端のニューラルネットワーク言語モデル(NNLM)は非常に複雑になりつつある。
本稿では,LSTM-RNN と Transformer LM の基盤となる不確実性を考慮するために,ベイズ学習フレームワークの全体構造を提案する。
論文 参考訳(メタデータ) (2022-08-28T17:50:19Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Quantum Long Short-Term Memory [3.675884635364471]
LSTM(Long Short-term memory)は、シーケンスおよび時間依存性データモデリングのためのリカレントニューラルネットワーク(RNN)である。
本稿では,QLSTMを疑似化したLSTMのハイブリッド量子古典モデルを提案する。
我々の研究は、ノイズの多い中間スケール量子(NISQ)デバイス上でのシーケンスモデリングのための機械学習アルゴリズムの実装への道を開いた。
論文 参考訳(メタデータ) (2020-09-03T16:41:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。