論文の概要: Privacy-Preserving Federated Learning via Homomorphic Adversarial Networks
- arxiv url: http://arxiv.org/abs/2412.01650v2
- Date: Tue, 03 Dec 2024 05:46:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:50:53.188320
- Title: Privacy-Preserving Federated Learning via Homomorphic Adversarial Networks
- Title(参考訳): 同相逆ネットワークによるプライバシー保護フェデレーション学習
- Authors: Wenhan Dong, Chao Lin, Xinlei He, Xinyi Huang, Shengmin Xu,
- Abstract要約: ホモモルフィック・Adversarial Networks (HAN) は、プライバシー攻撃に対して堅牢である。
HANは暗号化集約速度を6,075倍にし、通信オーバーヘッドは29.2倍に増加した。
従来のMK-HE方式と比較して、HANは暗号化集約速度を6,075倍に向上し、通信オーバーヘッドは29.2倍増加した。
- 参考スコア(独自算出の注目度): 23.901391258240597
- License:
- Abstract: Privacy-preserving federated learning (PPFL) aims to train a global model for multiple clients while maintaining their data privacy. However, current PPFL protocols exhibit one or more of the following insufficiencies: considerable degradation in accuracy, the requirement for sharing keys, and cooperation during the key generation or decryption processes. As a mitigation, we develop the first protocol that utilizes neural networks to implement PPFL, as well as incorporating an Aggregatable Hybrid Encryption scheme tailored to the needs of PPFL. We name these networks as Homomorphic Adversarial Networks (HANs) which demonstrate that neural networks are capable of performing tasks similar to multi-key homomorphic encryption (MK-HE) while solving the problems of key distribution and collaborative decryption. Our experiments show that HANs are robust against privacy attacks. Compared with non-private federated learning, experiments conducted on multiple datasets demonstrate that HANs exhibit a negligible accuracy loss (at most 1.35%). Compared to traditional MK-HE schemes, HANs increase encryption aggregation speed by 6,075 times while incurring a 29.2 times increase in communication overhead.
- Abstract(参考訳): プライバシ保護フェデレーション学習(PPFL)は、データのプライバシを維持しながら、複数のクライアントに対してグローバルモデルをトレーニングすることを目的としている。
しかし、現在のPPFLプロトコルでは、精度の相当な劣化、鍵共有の要求、鍵生成や復号過程における協調といった、一つ以上の不備が示されている。
本稿では,PPFLの実装にニューラルネットワークを利用した最初のプロトコルを開発し,PPFLの要求に合わせたアグリガブルハイブリッド暗号化方式を導入する。
ニューラルネットワークが鍵分散と協調復号化の問題を解決しつつ、MK-HE(Multi-key homomorphic encryption)に似たタスクを実行できることを示す。
我々の実験によると、HANはプライバシー攻撃に対して堅牢である。
非公開のフェデレーション学習と比較して、複数のデータセットで実施された実験は、HANが無視できる精度の損失(最大1.35%)を示すことを示した。
従来のMK-HE方式と比較して、HANは暗号化集約速度を6,075倍に向上し、通信オーバーヘッドは29.2倍増加した。
関連論文リスト
- A New Federated Learning Framework Against Gradient Inversion Attacks [17.3044168511991]
Federated Learning (FL)は、クライアントが生データを共有せずに機械学習モデルを集合的にトレーニングできるようにすることで、データのプライバシを保護することを目的としている。
近年の研究では、FL中に交換された情報がグラディエント・インバージョン・アタック(GIA)の対象であることが示されている。
論文 参考訳(メタデータ) (2024-12-10T04:53:42Z) - DMM: Distributed Matrix Mechanism for Differentially-Private Federated Learning using Packed Secret Sharing [51.336015600778396]
フェデレーテッド・ラーニング(FL)は最近、産業とアカデミックの両方で多くの注目を集めています。
FLでは、機械学習モデルは、複数のラウンドにまたがって委員会に配置されたさまざまなエンドユーザのデータを使用して訓練される。
このようなデータは、しばしばセンシティブであるため、FLの主な課題は、モデルの実用性を維持しながらプライバシを提供することである。
論文 参考訳(メタデータ) (2024-10-21T16:25:14Z) - An Efficient and Multi-private Key Secure Aggregation for Federated Learning [41.29971745967693]
フェデレート学習のための効率的かつ多目的な鍵セキュアアグリゲーション手法を提案する。
具体的には、変種ElGamal暗号を巧みに修正し、同型加算演算を実現する。
高次元深層モデルパラメータに対しては,多次元データを1次元に圧縮する超増進シーケンスを導入する。
論文 参考訳(メタデータ) (2023-06-15T09:05:36Z) - FheFL: Fully Homomorphic Encryption Friendly Privacy-Preserving Federated Learning with Byzantine Users [19.209830150036254]
従来の機械学習パラダイムにおけるデータプライバシの問題を軽減するために、フェデレートラーニング(FL)技術が開発された。
次世代のFLアーキテクチャでは、モデル更新をサーバから保護するための暗号化と匿名化技術が提案されている。
本稿では,完全同型暗号(FHE)に基づく新しいFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-08T11:20:00Z) - When approximate design for fast homomorphic computation provides
differential privacy guarantees [0.08399688944263842]
差分プライバシー(DP)と暗号プリミティブは、プライバシー攻撃に対する一般的な対策である。
本稿では,argmax演算子に対する確率近似アルゴリズム ShiELD を設計する。
たとえShielDが他のアプリケーションを持つことができたとしても、私たちは1つの設定に集中し、SPEEDコラボレーティブトレーニングフレームワークにシームレスに統合します。
論文 参考訳(メタデータ) (2023-04-06T09:38:01Z) - On The Vulnerability of Recurrent Neural Networks to Membership
Inference Attacks [20.59493611017851]
機械学習において、リカレントニューラルネットワークをデプロイすることのプライバシーへの影響について検討する。
本研究では,攻撃者が学習エージェントの訓練に与えられたデータ記録を用いていたかどうかを推測することを目的としたMIAについて考察する。
論文 参考訳(メタデータ) (2021-10-06T20:20:35Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - Sphynx: ReLU-Efficient Network Design for Private Inference [49.73927340643812]
そこでは、サービスプロバイダのモデルを使用して、ユーザのデータサンプルに対する推論を実行することを目標としています。
ディープネットワークのための既存のPIメソッドは、機能低下の少ない暗号的にセキュアな推論を可能にする。
本稿では,畳み込みセル設計のためのマイクロサーチ手法に基づくReLU効率の高いネットワーク設計手法であるSphynxを提案する。
論文 参考訳(メタデータ) (2021-06-17T18:11:10Z) - NeuraCrypt: Hiding Private Health Data via Random Neural Networks for
Public Training [64.54200987493573]
我々は,ランダムな深層ニューラルネットワークに基づくプライベート符号化方式であるNeuraCryptを提案する。
NeuraCryptは、データ所有者のみが知っているランダムに構築されたニューラルネットワークを使用して、生の患者データをエンコードする。
我々は,NeuraCryptが,様々なX線タスクの非プライベートベースラインに対して,競合精度を達成することを示す。
論文 参考訳(メタデータ) (2021-06-04T13:42:21Z) - Experimental quantum conference key agreement [55.41644538483948]
量子ネットワークは、世界規模でセキュアな通信を可能にするために、長距離におけるマルチノードの絡み合いを提供する。
ここでは、マルチパーティの絡み合いを利用した量子通信プロトコルである量子会議鍵合意を示す。
我々は4光子グリーンバーガー・ホーネ・ザイリンガー状態(GHZ)を最大50kmの繊維に高輝度の光子対光線源で生成する。
論文 参考訳(メタデータ) (2020-02-04T19:00:31Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。