論文の概要: Federated learning with distributed fixed design quantum chips and quantum channels
- arxiv url: http://arxiv.org/abs/2401.13421v3
- Date: Wed, 09 Oct 2024 10:19:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-10 14:28:51.325144
- Title: Federated learning with distributed fixed design quantum chips and quantum channels
- Title(参考訳): 分散固定設計量子チップと量子チャネルを用いたフェデレーション学習
- Authors: Ammar Daskin,
- Abstract要約: 古典的なフェデレーション学習におけるプライバシは、局所的な勾配結果と、クライアントにエンジニアリングされたクエリを組み合わせることで破ることができる。
本稿では,集中型サーバから送信される量子状態に基づいて,固定設計量子チップを動作させる量子フェデレート学習モデルを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The privacy in classical federated learning can be breached through the use of local gradient results combined with engineered queries to the clients. However, quantum communication channels are considered more secure because a measurement on the channel causes a loss of information, which can be detected by the sender. Therefore, the quantum version of federated learning can be used to provide better privacy. Additionally, sending an $N$-dimensional data vector through a quantum channel requires sending $\log N$ entangled qubits, which can potentially provide efficiency if the data vector is utilized as quantum states. In this paper, we propose a quantum federated learning model in which fixed design quantum chips are operated based on the quantum states sent by a centralized server. Based on the incoming superposition states, the clients compute and then send their local gradients as quantum states to the server, where they are aggregated to update parameters. Since the server does not send model parameters, but instead sends the operator as a quantum state, the clients are not required to share the model. This allows for the creation of asynchronous learning models. In addition, the model is fed into client-side chips directly as a quantum state; therefore, it does not require measurements on the incoming quantum state to obtain model parameters in order to compute gradients. This can provide efficiency over models where the parameter vector is sent via classical or quantum channels and local gradients are obtained through the obtained values these parameters.
- Abstract(参考訳): 古典的なフェデレーション学習におけるプライバシは、局所的な勾配結果と、クライアントへのエンジニアによるクエリを使って破ることができる。
しかし、チャネル上の測定によって情報の損失が生じ、送信者が検出できるため、量子通信チャネルはより安全であると考えられる。
したがって、フェデレーション学習の量子バージョンは、より優れたプライバシーを提供するために使用できる。
さらに、量子チャネルを介して$N$次元のデータベクトルを送信するには、$\log N$ entangled qubitsを送信する必要がある。
本稿では,集中型サーバが送信する量子状態に基づいて,固定設計量子チップを動作させる量子フェデレート学習モデルを提案する。
到着する重ね合わせ状態に基づいて、クライアントは計算し、そのローカル勾配を量子状態としてサーバに送信し、そこでパラメータを更新するために集約される。
サーバはモデルパラメータを送信せず、代わりに演算子を量子状態として送信するため、クライアントはモデルを共有する必要はない。
これにより、非同期学習モデルの作成が可能になる。
さらに、モデルがクライアント側チップに直接量子状態として供給されるため、勾配を計算するためにモデルパラメータを取得するために、入ってくる量子状態の測定は必要ない。
これにより、パラメータベクトルが古典的あるいは量子的チャネルを介して送信され、これらのパラメータから局所勾配が得られるモデルよりも効率がよい。
関連論文リスト
- Training quantum machine learning models on cloud without uploading the data [0.0]
本稿では,入力データを符号化する前にパラメータ化量子回路を動作させる手法を提案する。
これにより、データセット所有者は、量子クラウドプラットフォーム上で機械学習モデルをトレーニングすることができる。
また、後に古典的な計算を用いて大量のデータを効果的に符号化することも可能である。
論文 参考訳(メタデータ) (2024-09-06T20:14:52Z) - Federated Quantum-Train with Batched Parameter Generation [3.697453416360906]
我々は、QTモデルをフェデレートラーニングに統合する、Federated Quantum-Train(QT)フレームワークを紹介する。
提案手法は, 一般化誤差を低減しつつ, 量子ビット使用量を19から8キュービットまで大幅に削減する。
論文 参考訳(メタデータ) (2024-09-04T14:39:11Z) - A Quantum-Classical Collaborative Training Architecture Based on Quantum
State Fidelity [50.387179833629254]
我々は,コ・テンク (co-TenQu) と呼ばれる古典量子アーキテクチャを導入する。
Co-TenQuは古典的なディープニューラルネットワークを41.72%まで向上させる。
他の量子ベースの手法よりも1.9倍も優れており、70.59%少ない量子ビットを使用しながら、同様の精度を達成している。
論文 参考訳(メタデータ) (2024-02-23T14:09:41Z) - A Quantum Federated Learning Framework for Classical Clients [6.418941009007091]
量子フェデレートラーニング(QFL)は、複数のクライアント間で量子機械学習(QML)モデルの協調トレーニングを可能にする。
量子コンピューティングリソースの限られた可用性は、各クライアントが量子コンピューティング能力を取得するための課題となる。
CC-QFLと呼ばれる古典的クライアント向けに設計されたQFLフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-18T19:29:55Z) - Delegated variational quantum algorithms based on quantum homomorphic
encryption [69.50567607858659]
変分量子アルゴリズム(VQA)は、量子デバイス上で量子アドバンテージを達成するための最も有望な候補の1つである。
クライアントのプライベートデータは、そのような量子クラウドモデルで量子サーバにリークされる可能性がある。
量子サーバが暗号化データを計算するための新しい量子ホモモルフィック暗号(QHE)スキームが構築されている。
論文 参考訳(メタデータ) (2023-01-25T07:00:13Z) - Quantum Federated Learning for Distributed Quantum Networks [9.766446130011706]
本稿では,量子力学の興味深い特徴を利用した分散量子ネットワークのための量子フェデレーション学習を提案する。
分散量子ネットワーク内のクライアントがローカルモデルをトレーニングするのを助けるために、量子勾配降下アルゴリズムが提供される。
量子セキュアなマルチパーティ計算プロトコルを設計し,中国の残差定理を用いた。
論文 参考訳(メタデータ) (2022-12-25T14:37:23Z) - Towards Quantum Graph Neural Networks: An Ego-Graph Learning Approach [47.19265172105025]
グラフ構造化データのための新しいハイブリッド量子古典アルゴリズムを提案し、これをEgo-graph based Quantum Graph Neural Network (egoQGNN)と呼ぶ。
egoQGNNはテンソル積とユニティ行列表現を用いてGNN理論フレームワークを実装し、必要なモデルパラメータの数を大幅に削減する。
このアーキテクチャは、現実世界のデータからヒルベルト空間への新しいマッピングに基づいている。
論文 参考訳(メタデータ) (2022-01-13T16:35:45Z) - Realizing Quantum Convolutional Neural Networks on a Superconducting
Quantum Processor to Recognize Quantum Phases [2.1465372441653354]
量子ニューラルネットワークは、ユニタリ演算、測定、フィードフォワードの約束を組み合わせることで、量子状態の特定の特徴を認識するように調整され、少ない測定とエラーを許容する。
我々は、7量子ビット超伝導量子プロセッサ上で量子畳み込みニューラルネットワーク(QCNN)を実現し、非ゼロ弦順序パラメータを特徴とするスピンモデルの対称性保護位相を同定する。
その結果,QCNNは有限忠実ゲート自体で構成されているにもかかわらず,用意された状態に対する弦順パラメータの直接測定よりも位相位相を高い忠実度で認識していることがわかった。
論文 参考訳(メタデータ) (2021-09-13T12:32:57Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Quantum Federated Learning with Quantum Data [87.49715898878858]
量子機械学習(QML)は、量子コンピューティングの発展に頼って、大規模な複雑な機械学習問題を探求する、有望な分野として登場した。
本稿では、量子データ上で動作し、量子回路パラメータの学習を分散的に共有できる初めての完全量子連合学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-30T12:19:27Z) - Fault-tolerant Coding for Quantum Communication [71.206200318454]
ノイズチャネルの多くの用途でメッセージを確実に送信するために、回路をエンコードしてデコードする。
すべての量子チャネル$T$とすべての$eps>0$に対して、以下に示すゲートエラー確率のしきい値$p(epsilon,T)$が存在し、$C-epsilon$より大きいレートはフォールトトレラント的に達成可能である。
我々の結果は、遠方の量子コンピュータが高レベルのノイズの下で通信する必要があるような、大きな距離での通信やオンチップでの通信に関係している。
論文 参考訳(メタデータ) (2020-09-15T15:10:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。