論文の概要: Federated Learning with Quantum Secure Aggregation
- arxiv url: http://arxiv.org/abs/2207.07444v2
- Date: Fri, 15 Sep 2023 06:03:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 19:18:36.694692
- Title: Federated Learning with Quantum Secure Aggregation
- Title(参考訳): 量子セキュアアグリゲーションによるフェデレーション学習
- Authors: Yichi Zhang, Chao Zhang, Cai Zhang, Lixin Fan, Bei Zeng, Qiang Yang
- Abstract要約: このスキームは、プライベートモデルパラメータが半正直な攻撃者に開示されるのを防ぐために安全である。
提案されたセキュリティメカニズムにより、プライベートモデルのパラメータを盗聴しようとする試みが直ちに検出され、停止されることが保証される。
- 参考スコア(独自算出の注目度): 23.385315728881295
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This article illustrates a novel Quantum Secure Aggregation (QSA) scheme that
is designed to provide highly secure and efficient aggregation of local model
parameters for federated learning. The scheme is secure in protecting private
model parameters from being disclosed to semi-honest attackers by utilizing
quantum bits i.e. qubits to represent model parameters. The proposed security
mechanism ensures that any attempts to eavesdrop private model parameters can
be immediately detected and stopped. The scheme is also efficient in terms of
the low computational complexity of transmitting and aggregating model
parameters through entangled qubits. Benefits of the proposed QSA scheme are
showcased in a horizontal federated learning setting in which both a
centralized and decentralized architectures are taken into account. It was
empirically demonstrated that the proposed QSA can be readily applied to
aggregate different types of local models including logistic regression (LR),
convolutional neural networks (CNN) as well as quantum neural network (QNN),
indicating the versatility of the QSA scheme. Performances of global models are
improved to various extents with respect to local models obtained by individual
participants, while no private model parameters are disclosed to semi-honest
adversaries.
- Abstract(参考訳): 本稿では,新しい量子セキュアアグリゲーション(qsa)スキームについて述べる。フェデレーション学習のための局所モデルパラメータの高度にセキュアで効率的なアグリゲーションを提供する。
このスキームは、量子ビット、すなわちモデルパラメータを表す量子ビットを利用することで、プライベートモデルパラメータが半正直な攻撃者に開示されるのを防ぐために安全である。
提案されたセキュリティメカニズムは、プライベートモデルパラメータを盗聴しようとするあらゆる試みを即座に検出および停止することを保証する。
このスキームは、エンタングル量子ビットを介してモデルパラメータを伝達および集約する計算の複雑さが低いという点でも効率的である。
提案するqsaスキームの利点は、集中型と分散型のアーキテクチャの両方を考慮した水平型連合学習環境において示される。
提案したQSAは、ロジスティック回帰(LR)、畳み込みニューラルネットワーク(CNN)、量子ニューラルネットワーク(QNN)など、様々なタイプの局所モデルの集約に容易に適用可能であることが実証された。
個々の参加者が獲得したローカルモデルに関して、グローバルモデルのパフォーマンスは様々な範囲で改善され、半正真正銘の敵にはプライベートモデルパラメータが開示されない。
関連論文リスト
- Discrete Randomized Smoothing Meets Quantum Computing [40.54768963869454]
重畳における入力バイナリデータの摂動をエンコードし、量子振幅推定(QAE)を用いてモデルへの呼び出し数を2次的に削減する方法を示す。
さらに、画像、グラフ、テキストに対するアプローチの広範な評価を可能にする新しいバイナリ脅威モデルを提案する。
論文 参考訳(メタデータ) (2024-08-01T20:21:52Z) - LoRA-Ensemble: Efficient Uncertainty Modelling for Self-attention Networks [52.46420522934253]
本稿では,自己注意ネットワークのためのパラメータ効率の高いディープアンサンブル手法であるLoRA-Ensembleを紹介する。
全メンバー間で重みを共有できる1つの事前学習型自己注意ネットワークを利用することで、注意投影のために、メンバー固有の低ランク行列を訓練する。
提案手法は明示的なアンサンブルよりも優れたキャリブレーションを示し,様々な予測タスクやデータセットに対して類似あるいは良好な精度を実現する。
論文 参考訳(メタデータ) (2024-05-23T11:10:32Z) - Expressive variational quantum circuits provide inherent privacy in
federated learning [2.3255115473995134]
フェデレーション学習は、中央アグリゲータとデータを共有する必要なく、機械学習モデルをトレーニングするための実行可能なソリューションとして登場した。
標準的なニューラルネットワークベースのフェデレーション学習モデルは、サーバと共有される勾配からデータ漏洩の影響を受けやすいことが示されている。
表現的マップは、勾配反転攻撃に対する固有のプライバシーにつながることを示す。
論文 参考訳(メタデータ) (2023-09-22T17:04:50Z) - A Framework for Demonstrating Practical Quantum Advantage: Racing
Quantum against Classical Generative Models [62.997667081978825]
生成モデルの一般化性能を評価するためのフレームワークを構築した。
古典的および量子生成モデル間の実用的量子優位性(PQA)に対する最初の比較レースを確立する。
以上の結果から,QCBMは,他の最先端の古典的生成モデルよりも,データ制限方式の方が効率的であることが示唆された。
論文 参考訳(メタデータ) (2023-03-27T22:48:28Z) - Orthogonal Stochastic Configuration Networks with Adaptive Construction
Parameter for Data Analytics [6.940097162264939]
ランダム性により、SCNは冗長で品質の低い近似線形相関ノードを生成する可能性が高まる。
機械学習の基本原理、すなわち、パラメータが少ないモデルでは、一般化が向上する。
本稿では,ネットワーク構造低減のために,低品質な隠れノードをフィルタする直交SCN(OSCN)を提案する。
論文 参考訳(メタデータ) (2022-05-26T07:07:26Z) - Probabilistic Selective Encryption of Convolutional Neural Networks for
Hierarchical Services [13.643603852209091]
我々は,CNNモデルを不正アクセスから保護するために,選択的暗号化(SE)アルゴリズムを提案する。
提案した確率的選択戦略(PSS)を用いて重要なモデルパラメータを選択する。
次に、DPRM(Distributed Preserving Random Mask)と呼ばれる設計された暗号化手法で、最も重要なパラメータを暗号化する。
論文 参考訳(メタデータ) (2021-05-26T06:15:58Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - Sampling asymmetric open quantum systems for artificial neural networks [77.34726150561087]
非対称な開系に対する高速収束時間と高いスケーラビリティを実現し,非対称性を考慮したハイブリッドサンプリング戦略を提案する。
我々は、ニューラルネットワークの普遍的適用性を強調し、ニューラルネットワークの普遍的適用性を概説する。
論文 参考訳(メタデータ) (2020-12-20T18:25:29Z) - Decentralizing Feature Extraction with Quantum Convolutional Neural
Network for Automatic Speech Recognition [101.69873988328808]
特徴抽出のための量子回路エンコーダからなる量子畳み込みニューラルネットワーク(QCNN)を構築した。
入力音声はまず、Mel-spectrogramを抽出するために量子コンピューティングサーバにアップストリームされる。
対応する畳み込み特徴は、ランダムパラメータを持つ量子回路アルゴリズムを用いて符号化される。
符号化された機能は、最終認識のためにローカルRNNモデルにダウンストリームされる。
論文 参考訳(メタデータ) (2020-10-26T03:36:01Z) - Identification of Probability weighted ARX models with arbitrary domains [75.91002178647165]
PieceWise Affineモデルは、ハイブリッドシステムの他のクラスに対する普遍近似、局所線型性、同値性を保証する。
本研究では,任意の領域を持つ固有入力モデル(NPWARX)を用いたPieceWise Auto Regressiveの同定に着目する。
このアーキテクチャは、機械学習の分野で開発されたMixture of Expertの概念に従って考案された。
論文 参考訳(メタデータ) (2020-09-29T12:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。