論文の概要: Federated Quantum-Train Long Short-Term Memory for Gravitational Wave Signal
- arxiv url: http://arxiv.org/abs/2503.16049v1
- Date: Thu, 20 Mar 2025 11:34:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 19:01:26.985901
- Title: Federated Quantum-Train Long Short-Term Memory for Gravitational Wave Signal
- Title(参考訳): 重力波信号に対するフェデレーション量子トレイン長短期記憶
- Authors: Chen-Yu Liu, Samuel Yen-Chi Chen, Kuan-Cheng Chen, Wei-Jia Huang, Yen-Jui Chang,
- Abstract要約: 本稿では,QT(Quantum-Train)方法論とLong Short-Term Memory(LSTM)ネットワークを組み合わせた新しいフレームワークであるFederated QT-LSTMについて述べる。
トレーニング中に量子ニューラルネットワーク(QNN)を利用して古典的なLSTMモデルパラメータを生成することで、このフレームワークはモデル圧縮、スケーラビリティ、計算効率の課題を効果的に解決する。
- 参考スコア(独自算出の注目度): 3.360429911727189
- License:
- Abstract: We present Federated QT-LSTM, a novel framework that combines the Quantum-Train (QT) methodology with Long Short-Term Memory (LSTM) networks in a federated learning setup. By leveraging quantum neural networks (QNNs) to generate classical LSTM model parameters during training, the framework effectively addresses challenges in model compression, scalability, and computational efficiency. Importantly, Federated QT-LSTM eliminates the reliance on quantum devices during inference, making it practical for real-world applications. Experiments on simulated gravitational wave (GW) signal datasets demonstrate the framework's superior performance compared to baseline models, including LSTM and QLSTM, achieving lower training and testing losses while significantly reducing the number of trainable parameters. The results also reveal that deeper QT layers enhance model expressiveness for complex tasks, highlighting the adaptability of the framework. Federated QT-LSTM provides a scalable and efficient solution for privacy-preserving distributed learning, showcasing the potential of quantum-inspired techniques in advancing time-series prediction and signal reconstruction tasks.
- Abstract(参考訳): 本稿では,QT(Quantum-Train)方法論とLong Short-Term Memory(LSTM)ネットワークを組み合わせた新しいフレームワークであるFederated QT-LSTMについて述べる。
トレーニング中に量子ニューラルネットワーク(QNN)を利用して古典的なLSTMモデルパラメータを生成することで、このフレームワークはモデル圧縮、スケーラビリティ、計算効率の課題を効果的に解決する。
重要なことは、フェデレートされたQT-LSTMは、推論中の量子デバイスへの依存を排除し、現実世界のアプリケーションに実用的であることである。
シミュレーション重力波(GW)信号データセットの実験は、LSTMやQLSTMなどのベースラインモデルと比較して、フレームワークの優れた性能を示し、トレーニング可能なパラメータの数を著しく削減しながら、トレーニングとテストの損失を低減した。
また、より深いQT層は複雑なタスクに対するモデル表現性を高め、フレームワークの適応性を強調します。
Federated QT-LSTMは、プライバシを保存する分散学習のためのスケーラブルで効率的なソリューションを提供する。
関連論文リスト
- Quantum Kernel-Based Long Short-term Memory for Climate Time-Series Forecasting [0.24739484546803336]
本稿では,量子カーネル法を従来のLSTMアーキテクチャに統合したQK-LSTM(Quantum Kernel-Based Long short-Memory)ネットワークを提案する。
QK-LSTMは、トレーニング可能なパラメータが少ない複雑な非線形依存と時間ダイナミクスをキャプチャする。
論文 参考訳(メタデータ) (2024-12-12T01:16:52Z) - Quantum Kernel-Based Long Short-term Memory [0.30723404270319693]
本稿では,Quantum Kernel-Based Long Short-Term Memory (QK-LSTM) ネットワークを導入する。
この量子化アーキテクチャは、効率的な収束、ロバストな損失最小化、モデルコンパクト性を示す。
ベンチマークの結果,QK-LSTMは従来のLSTMモデルと同等の性能を示すが,パラメータは少ない。
論文 参考訳(メタデータ) (2024-11-20T11:39:30Z) - Quantum-Train with Tensor Network Mapping Model and Distributed Circuit Ansatz [0.8192907805418583]
量子トレイン(Quantum-Train、QT)は、量子古典機械学習のハイブリッドフレームワークである。
量子状態の測定を古典的なニューラルネットワークの重みにマッピングする。
従来のQTフレームワークでは、このタスクにマルチレイヤパーセプトロン(MLP)を採用しているが、スケーラビリティと解釈可能性に苦慮している。
複数の小さな量子処理ユニットノードを持つ大規模量子機械学習用に設計された分散回路アンサッツを提案する。
論文 参考訳(メタデータ) (2024-09-11T03:51:34Z) - Implementation Guidelines and Innovations in Quantum LSTM Networks [2.938337278931738]
本稿では,従来のLSTMネットワークに量子コンピューティングの原理を統合する量子LSTMモデルの理論的解析と実装計画を提案する。
シーケンシャルなデータ処理を強化するための実際のアーキテクチャとその実践的効果は、今後の研究で開発され、実証される。
論文 参考訳(メタデータ) (2024-06-13T10:26:14Z) - Federated Quantum Long Short-term Memory (FedQLSTM) [58.50321380769256]
量子フェデレーション学習(QFL)は、量子機械学習(QML)モデルを使用して、複数のクライアント間の協調学習を容易にする。
関数の近似に時間的データを利用するQFLフレームワークの開発に前向きな作業は行われていない。
量子長短期メモリ(QLSTM)モデルと時間データを統合する新しいQFLフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-21T21:40:47Z) - Pre-training Tensor-Train Networks Facilitates Machine Learning with Variational Quantum Circuits [70.97518416003358]
変分量子回路(VQC)は、ノイズの多い中間スケール量子(NISQ)デバイス上での量子機械学習を約束する。
テンソルトレインネットワーク(TTN)はVQC表現と一般化を向上させることができるが、結果として得られるハイブリッドモデルであるTTN-VQCは、Polyak-Lojasiewicz(PL)条件による最適化の課題に直面している。
この課題を軽減するために,プレトレーニングTTNモデルとVQCを組み合わせたPre+TTN-VQCを導入する。
論文 参考訳(メタデータ) (2023-05-18T03:08:18Z) - Bayesian Neural Network Language Modeling for Speech Recognition [59.681758762712754]
長期記憶リカレントニューラルネットワーク(LSTM-RNN)とトランスフォーマーで表される最先端のニューラルネットワーク言語モデル(NNLM)は非常に複雑になりつつある。
本稿では,LSTM-RNN と Transformer LM の基盤となる不確実性を考慮するために,ベイズ学習フレームワークの全体構造を提案する。
論文 参考訳(メタデータ) (2022-08-28T17:50:19Z) - Green, Quantized Federated Learning over Wireless Networks: An
Energy-Efficient Design [68.86220939532373]
有限精度レベルは、固定精度フォーマットで重みとアクティベーションを定量化する量子ニューラルネットワーク(QNN)を使用して取得される。
提案するFLフレームワークは,ベースラインFLアルゴリズムと比較して,収束までのエネルギー消費量を最大70%削減することができる。
論文 参考訳(メタデータ) (2022-07-19T16:37:24Z) - When BERT Meets Quantum Temporal Convolution Learning for Text
Classification in Heterogeneous Computing [75.75419308975746]
本研究は,変分量子回路に基づく垂直連合学習アーキテクチャを提案し,テキスト分類のための量子化事前学習BERTモデルの競争性能を実証する。
目的分類実験により,提案したBERT-QTCモデルにより,SnipsおよびATIS音声言語データセットの競合実験結果が得られた。
論文 参考訳(メタデータ) (2022-02-17T09:55:21Z) - Quantum Long Short-Term Memory [3.675884635364471]
LSTM(Long Short-term memory)は、シーケンスおよび時間依存性データモデリングのためのリカレントニューラルネットワーク(RNN)である。
本稿では,QLSTMを疑似化したLSTMのハイブリッド量子古典モデルを提案する。
我々の研究は、ノイズの多い中間スケール量子(NISQ)デバイス上でのシーケンスモデリングのための機械学習アルゴリズムの実装への道を開いた。
論文 参考訳(メタデータ) (2020-09-03T16:41:09Z) - Object Tracking through Residual and Dense LSTMs [67.98948222599849]
LSTM(Long Short-Term Memory)リカレントニューラルネットワークに基づくディープラーニングベースのトラッカーが、強力な代替手段として登場した。
DenseLSTMはResidualおよびRegular LSTMより優れ、ニュアンセに対する高いレジリエンスを提供する。
ケーススタディは、他のトラッカーの堅牢性を高めるために残差ベースRNNの採用を支援する。
論文 参考訳(メタデータ) (2020-06-22T08:20:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。