論文の概要: Federated Learning with Quantum Computing and Fully Homomorphic Encryption: A Novel Computing Paradigm Shift in Privacy-Preserving ML
- arxiv url: http://arxiv.org/abs/2409.11430v3
- Date: Sat, 12 Oct 2024 10:51:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 20:01:55.140352
- Title: Federated Learning with Quantum Computing and Fully Homomorphic Encryption: A Novel Computing Paradigm Shift in Privacy-Preserving ML
- Title(参考訳): 量子コンピューティングと完全同型暗号化によるフェデレートラーニング:プライバシ保護MLにおける新しいコンピューティングパラダイムシフト
- Authors: Siddhant Dutta, Pavana P Karanth, Pedro Maciel Xavier, Iago Leal de Freitas, Nouhaila Innan, Sadok Ben Yahia, Muhammad Shafique, David E. Bernal Neira,
- Abstract要約: フェデレートラーニング(Federated Learning)は、複数の学習クライアントがプライベートデータを公開せずにモデル知識を共有できるようにする、従来の方法に代わるプライバシ保護手法である。
この研究は、古典層と量子層の両方を統合するフェデレート学習ニューラルネットワークアーキテクチャに完全同型暗号化スキームを適用した。
- 参考スコア(独自算出の注目度): 4.92218040320554
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The widespread deployment of products powered by machine learning models is raising concerns around data privacy and information security worldwide. To address this issue, Federated Learning was first proposed as a privacy-preserving alternative to conventional methods that allow multiple learning clients to share model knowledge without disclosing private data. A complementary approach known as Fully Homomorphic Encryption (FHE) is a quantum-safe cryptographic system that enables operations to be performed on encrypted weights. However, implementing mechanisms such as these in practice often comes with significant computational overhead and can expose potential security threats. Novel computing paradigms, such as analog, quantum, and specialized digital hardware, present opportunities for implementing privacy-preserving machine learning systems while enhancing security and mitigating performance loss. This work instantiates these ideas by applying the FHE scheme to a Federated Learning Neural Network architecture that integrates both classical and quantum layers.
- Abstract(参考訳): 機械学習モデルを利用したプロダクトの広範な展開は、世界中のデータプライバシと情報セキュリティに関する懸念を高めている。
この問題に対処するため、フェデレートラーニングは、複数の学習クライアントがプライベートデータを開示することなくモデル知識を共有できるようにする従来の方法に代わるプライバシー保護手段として最初に提案された。
FHE(Fully Homomorphic Encryption)は、量子セーフな暗号システムであり、暗号化された重みで操作を実行できる。
しかし、このようなメカニズムを実際に実装することは、しばしば計算上のオーバーヘッドが大きくなり、潜在的なセキュリティ脅威を露呈する可能性がある。
アナログ、量子、特殊デジタルハードウェアなどの新しいコンピューティングパラダイムは、セキュリティを強化し、パフォーマンス損失を軽減するとともに、プライバシ保護機械学習システムを実装する機会を提供する。
この研究は、古典層と量子層の両方を統合するフェデレートラーニングニューラルネットワークアーキテクチャにFHEスキームを適用することで、これらのアイデアをインスタンス化する。
関連論文リスト
- Enhancing Quantum Security over Federated Learning via Post-Quantum Cryptography [38.77135346831741]
フェデレートラーニング(FL)は、エッジデバイスに機械学習モデルをデプロイするための標準的なアプローチの1つになっている。
現在のデジタルシグネチャアルゴリズムは、これらの通信されたモデルの更新を保護することができるが、大規模な量子コンピューティングの時代には量子セキュリティを確保することができない。
本研究では,これらの3つのNIST標準化PQCアルゴリズムがFLプロシージャ内のデジタル署名に与える影響を実験的に検討する。
論文 参考訳(メタデータ) (2024-09-06T22:02:08Z) - Federated Learning is Better with Non-Homomorphic Encryption [1.4110007887109783]
Federated Learning(FL)は、生データを収集することなく、分散AIモデルのトレーニングを促進するパラダイムを提供する。
一般的な手法の1つは、ホモモルフィック暗号化(HE)を用いることである。
本稿では,置換型圧縮機と古典暗号を相乗化する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-04T17:37:41Z) - ShadowNet for Data-Centric Quantum System Learning [188.683909185536]
本稿では,ニューラルネットワークプロトコルと古典的シャドウの強みを組み合わせたデータ中心学習パラダイムを提案する。
ニューラルネットワークの一般化力に基づいて、このパラダイムはオフラインでトレーニングされ、これまで目に見えないシステムを予測できる。
量子状態トモグラフィーおよび直接忠実度推定タスクにおいて、我々のパラダイムのインスタンス化を示し、60量子ビットまでの数値解析を行う。
論文 参考訳(メタデータ) (2023-08-22T09:11:53Z) - Privacy-Preserving Chaotic Extreme Learning Machine with Fully
Homomorphic Encryption [5.010425616264462]
完全同型暗号を用いたカオス・エクストリーム学習マシンとその暗号化形式を提案する。
提案手法は,ほとんどのデータセットにおいて,従来のエクストリーム学習マシンとよくあるいは類似している。
論文 参考訳(メタデータ) (2022-08-04T11:29:52Z) - SoK: Privacy-preserving Deep Learning with Homomorphic Encryption [2.9069679115858755]
ホモモルフィック暗号化(HE)は、その内容を明らかにすることなく暗号化データ上で実行される。
プライバシ保護のために、ニューラルネットワークとHEを組み合わせたアプローチを詳細に検討します。
計算オーバーヘッドやユーザビリティ,暗号化スキームによる制限といった,HEベースのプライバシ保護の深層学習には,数多くの課題がある。
論文 参考訳(メタデータ) (2021-12-23T22:03:27Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - TenSEAL: A Library for Encrypted Tensor Operations Using Homomorphic
Encryption [0.0]
モノモルフィック暗号化を用いたプライバシー保護機械学習のためのオープンソースライブラリTenSEALを紹介します。
我々は,半メガバイト以下の通信を用いて,暗号化畳み込みニューラルネットワークを1秒以内で評価可能であることを示す。
論文 参考訳(メタデータ) (2021-04-07T14:32:38Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - A Privacy-Preserving Distributed Architecture for
Deep-Learning-as-a-Service [68.84245063902908]
本稿では,ディープラーニング・アズ・ア・サービスのための分散アーキテクチャを提案する。
クラウドベースのマシンとディープラーニングサービスを提供しながら、ユーザの機密データを保存できる。
論文 参考訳(メタデータ) (2020-03-30T15:12:03Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。