論文の概要: Federated Quantum Long Short-term Memory (FedQLSTM)
- arxiv url: http://arxiv.org/abs/2312.14309v1
- Date: Thu, 21 Dec 2023 21:40:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-25 16:52:25.317070
- Title: Federated Quantum Long Short-term Memory (FedQLSTM)
- Title(参考訳): フェデレーション量子長短期記憶(FedQLSTM)
- Authors: Mahdi Chehimi, Samuel Yen-Chi Chen, Walid Saad, Shinjae Yoo
- Abstract要約: 量子フェデレーション学習(QFL)は、量子機械学習(QML)モデルを使用して、複数のクライアント間の協調学習を容易にする。
関数の近似に時間的データを利用するQFLフレームワークの開発に前向きな作業は行われていない。
量子長短期メモリ(QLSTM)モデルと時間データを統合する新しいQFLフレームワークを提案する。
- 参考スコア(独自算出の注目度): 58.50321380769256
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum federated learning (QFL) can facilitate collaborative learning across
multiple clients using quantum machine learning (QML) models, while preserving
data privacy. Although recent advances in QFL span different tasks like
classification while leveraging several data types, no prior work has focused
on developing a QFL framework that utilizes temporal data to approximate
functions useful to analyze the performance of distributed quantum sensing
networks. In this paper, a novel QFL framework that is the first to integrate
quantum long short-term memory (QLSTM) models with temporal data is proposed.
The proposed federated QLSTM (FedQLSTM) framework is exploited for performing
the task of function approximation. In this regard, three key use cases are
presented: Bessel function approximation, sinusoidal delayed quantum feedback
control function approximation, and Struve function approximation. Simulation
results confirm that, for all considered use cases, the proposed FedQLSTM
framework achieves a faster convergence rate under one local training epoch,
minimizing the overall computations, and saving 25-33% of the number of
communication rounds needed until convergence compared to an FL framework with
classical LSTM models.
- Abstract(参考訳): 量子フェデレーション学習(QFL)は、データのプライバシを保持しながら、量子機械学習(QML)モデルを使用して、複数のクライアント間の協調学習を容易にする。
QFLの最近の進歩は、いくつかのデータ型を活用しながら分類のような様々なタスクにまたがっているが、時間的データを利用して分散量子センシングネットワークの性能を解析するのに有用な関数を近似するQFLフレームワークの開発に注力する以前の研究はない。
本稿では,量子長短期メモリ(QLSTM)モデルと時間データを統合するための新しいQFLフレームワークを提案する。
提案するフェデレーションQLSTM(FedQLSTM)フレームワークは,関数近似のタスクを実行するために利用される。
この点において、ベッセル関数近似、正弦波遅延量子フィードバック制御関数近似、ストルーブ関数近似の3つの主要なユースケースが提示される。
シミュレーションの結果,提案するFedQLSTMフレームワークは,すべてのユースケースにおいて,1つのローカルトレーニングエポック下での収束速度の向上,全体的な計算の最小化,および従来のLSTMモデルを用いたFLフレームワークと比較して収束までの通信ラウンドの25~33%の削減を実現していることを確認した。
関連論文リスト
- Quantum Kernel-Based Long Short-term Memory [0.30723404270319693]
本稿では,Quantum Kernel-Based Long Short-Term Memory (QK-LSTM) ネットワークを導入する。
この量子化アーキテクチャは、効率的な収束、ロバストな損失最小化、モデルコンパクト性を示す。
ベンチマークの結果,QK-LSTMは従来のLSTMモデルと同等の性能を示すが,パラメータは少ない。
論文 参考訳(メタデータ) (2024-11-20T11:39:30Z) - Unifying (Quantum) Statistical and Parametrized (Quantum) Algorithms [65.268245109828]
我々はカーンズのSQオラクルとヴァリアントの弱い評価オラクルからインスピレーションを得ます。
評価クエリから学習するための非条件の下限を出力する,広範かつ直感的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-26T18:23:21Z) - Efficient quantum recurrent reinforcement learning via quantum reservoir
computing [3.6881738506505988]
量子強化学習(QRL)は、シーケンシャルな意思決定タスクを解決するためのフレームワークとして登場した。
本研究は、QRNNベースの量子長短期メモリ(QLSTM)を用いたQRLエージェントの構築により、この課題に対処する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-13T22:18:38Z) - QKSAN: A Quantum Kernel Self-Attention Network [53.96779043113156]
量子カーネル法(Quantum Kernel Methods, QKM)のデータ表現能力とSAMの効率的な情報抽出能力を組み合わせた量子カーネル自己認識機構(Quantum Kernel Self-Attention Mechanism, QKSAM)を導入する。
量子カーネル自己保持ネットワーク(QKSAN)フレームワークは,DMP(Dederred Measurement Principle)と条件測定技術を巧みに組み込んだQKSAMに基づいて提案されている。
4つのQKSANサブモデルはPennyLaneとIBM Qiskitプラットフォームにデプロイされ、MNISTとFashion MNISTのバイナリ分類を実行する。
論文 参考訳(メタデータ) (2023-08-25T15:08:19Z) - A Novel Stochastic LSTM Model Inspired by Quantum Machine Learning [0.0]
過去数年間の量子機械学習(QML)の研究は、QMLアルゴリズムが従来のアルゴリズムと同様に機能することを示唆している。
この研究は、QMLが古典機械にその性質を組み込むことで、いくつかの報告された利益を達成できるかどうかを解明することを目的としている。
論文 参考訳(メタデータ) (2023-05-17T13:44:25Z) - Optimizing Quantum Federated Learning Based on Federated Quantum Natural
Gradient Descent [17.05322956052278]
本稿では、FQNGD(Federated Quantum Natural descent)という効率的な最適化アルゴリズムを提案する。
アダムやアダグラードのような勾配降下法と比較して、FQNGDアルゴリズムは収束するQFLのトレーニングをはるかに少なくする。
手書き桁分類データセットの実験は、QFLフレームワークにおけるFQNGDの有効性を正当化するものである。
論文 参考訳(メタデータ) (2023-02-27T11:34:16Z) - Green, Quantized Federated Learning over Wireless Networks: An
Energy-Efficient Design [68.86220939532373]
有限精度レベルは、固定精度フォーマットで重みとアクティベーションを定量化する量子ニューラルネットワーク(QNN)を使用して取得される。
提案するFLフレームワークは,ベースラインFLアルゴリズムと比較して,収束までのエネルギー消費量を最大70%削減することができる。
論文 参考訳(メタデータ) (2022-07-19T16:37:24Z) - QSAN: A Near-term Achievable Quantum Self-Attention Network [73.15524926159702]
SAM(Self-Attention Mechanism)は機能の内部接続を捉えるのに長けている。
短期量子デバイスにおける画像分類タスクに対して,新しい量子自己注意ネットワーク(QSAN)を提案する。
論文 参考訳(メタデータ) (2022-07-14T12:22:51Z) - Quantum Federated Learning with Quantum Data [87.49715898878858]
量子機械学習(QML)は、量子コンピューティングの発展に頼って、大規模な複雑な機械学習問題を探求する、有望な分野として登場した。
本稿では、量子データ上で動作し、量子回路パラメータの学習を分散的に共有できる初めての完全量子連合学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-30T12:19:27Z) - Quantum Long Short-Term Memory [3.675884635364471]
LSTM(Long Short-term memory)は、シーケンスおよび時間依存性データモデリングのためのリカレントニューラルネットワーク(RNN)である。
本稿では,QLSTMを疑似化したLSTMのハイブリッド量子古典モデルを提案する。
我々の研究は、ノイズの多い中間スケール量子(NISQ)デバイス上でのシーケンスモデリングのための機械学習アルゴリズムの実装への道を開いた。
論文 参考訳(メタデータ) (2020-09-03T16:41:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。