論文の概要: FLASHE: Additively Symmetric Homomorphic Encryption for Cross-Silo
Federated Learning
- arxiv url: http://arxiv.org/abs/2109.00675v1
- Date: Thu, 2 Sep 2021 02:36:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-04 02:10:28.679223
- Title: FLASHE: Additively Symmetric Homomorphic Encryption for Cross-Silo
Federated Learning
- Title(参考訳): FLASHE: クロスサイトフェデレーション学習のための付加対称同型暗号化
- Authors: Zhifeng Jiang, Wei Wang, Yang Liu
- Abstract要約: ホモモルフィック暗号化(HE)は、クロスサイロ・フェデレーション・ラーニング(FL)のための有望なプライバシー保護技術である
ホモモルフィック暗号化(HE)は、クロスサイロ・フェデレーション・ラーニング(FL)のための有望なプライバシー保護技術である
- 参考スコア(独自算出の注目度): 9.177048551836897
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Homomorphic encryption (HE) is a promising privacy-preserving technique for
cross-silo federated learning (FL), where organizations perform collaborative
model training on decentralized data. Despite the strong privacy guarantee,
general HE schemes result in significant computation and communication
overhead. Prior works employ batch encryption to address this problem, but it
is still suboptimal in mitigating communication overhead and is incompatible
with sparsification techniques.
In this paper, we propose FLASHE, an HE scheme tailored for cross-silo FL. To
capture the minimum requirements of security and functionality, FLASHE drops
the asymmetric-key design and only involves modular addition operations with
random numbers. Depending on whether to accommodate sparsification techniques,
FLASHE is optimized in computation efficiency with different approaches. We
have implemented FLASHE as a pluggable module atop FATE, an industrial platform
for cross-silo FL. Compared to plaintext training, FLASHE slightly increases
the training time by $\leq6\%$, with no communication overhead.
- Abstract(参考訳): 準同型暗号化(homomorphic encryption, he)は、組織が分散データ上で協調的なモデルトレーニングを行うクロスサイロ連合学習(fl)のための、有望なプライバシー保護技術である。
強いプライバシー保証にもかかわらず、一般的なHEスキームは計算と通信のオーバーヘッドをもたらす。
以前の作業では、この問題に対処するためにバッチ暗号化を採用しているが、通信オーバーヘッドの軽減には至らず、スパーシフィケーション技術と互換性がない。
本稿では,クロスサイロFLに適したHE方式であるFLASHEを提案する。
セキュリティと機能の最小限の要件を捉えるため、FLASHEは非対称キー設計を廃止し、乱数を持つモジュラー加算操作のみを含む。
スパシフィケーション技術に適合するかどうかによって、FLASHEは異なるアプローチで計算効率を最適化する。
クロスサイロFLの産業プラットフォームであるFATE上にFLASHEをプラグ可能なモジュールとして実装した。
プレーンテキストのトレーニングと比較すると、FLASHEは通信オーバーヘッドを伴わずに、トレーニング時間を$\leq6\%$にわずかに向上する。
関連論文リスト
- QuanCrypt-FL: Quantized Homomorphic Encryption with Pruning for Secure Federated Learning [0.48342038441006796]
我々は,攻撃に対する防御を強化するために,低ビット量子化とプルーニング技術を組み合わせた新しいアルゴリズムQuanCrypt-FLを提案する。
我々は、MNIST、CIFAR-10、CIFAR-100データセットに対するアプローチを検証し、最先端手法と比較して優れた性能を示す。
QuanCrypt-FLは、最大9倍高速暗号化、16倍高速復号化、1.5倍高速推論を実現し、トレーニング時間を最大3倍短縮する。
論文 参考訳(メタデータ) (2024-11-08T01:46:00Z) - SpaFL: Communication-Efficient Federated Learning with Sparse Models and Low computational Overhead [75.87007729801304]
SpaFL: 計算オーバーヘッドの少ないスパースモデル構造を最適化する通信効率のよいFLフレームワークを提案する。
実験により、スパースベースラインに比べて通信やコンピューティングリソースをはるかに少なくし、精度を向上することが示された。
論文 参考訳(メタデータ) (2024-06-01T13:10:35Z) - Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - Federated Learning is Better with Non-Homomorphic Encryption [1.4110007887109783]
Federated Learning(FL)は、生データを収集することなく、分散AIモデルのトレーニングを促進するパラダイムを提供する。
一般的な手法の1つは、ホモモルフィック暗号化(HE)を用いることである。
本稿では,置換型圧縮機と古典暗号を相乗化する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-04T17:37:41Z) - Federated Nearest Neighbor Machine Translation [66.8765098651988]
本稿では,FedNN(FedNN)機械翻訳フレームワークを提案する。
FedNNは1ラウンドの記憶に基づくインタラクションを活用して、異なるクライアント間で知識を共有する。
実験の結果,FedAvgと比較して,FedNNは計算コストと通信コストを著しく削減することがわかった。
論文 参考訳(メタデータ) (2023-02-23T18:04:07Z) - Effect of Homomorphic Encryption on the Performance of Training
Federated Learning Generative Adversarial Networks [10.030986278376567]
GAN(Generative Adversarial Network)は、機械学習(ML)分野におけるディープラーニング生成モデルである。
医学などの特定の分野において、トレーニングデータは、異なる病院にまたがって保存される病院患者の記録である可能性がある。
本稿では,3種類のホモモルフィック暗号を用いたFL-GANの学習性能の低下に着目した。
論文 参考訳(メタデータ) (2022-07-01T08:35:10Z) - Desirable Companion for Vertical Federated Learning: New Zeroth-Order
Gradient Based Algorithm [140.25480610981504]
VFLアルゴリズムを評価するための指標の完全なリストには、モデル適用性、プライバシ、通信、計算効率が含まれるべきである。
ブラックボックスのスケーラビリティを備えた新しいVFLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-19T13:55:47Z) - HAFLO: GPU-Based Acceleration for Federated Logistic Regression [5.866156163019742]
本稿では,フェデレートラーニング(FLR)の性能向上を目的としたGPUベースのHAFLOを提案する。
HAFLOの中核となる考え方は、FLRが使用する性能クリティカルなホモモルフィック演算子の集合をまとめ、ストレージ、IO、計算の最適化を通じてこれらの演算子の実行を高速化することである。
FLフレームワークであるFATEの高速化は、異種LRでは49.9$times$、同種LRでは88.4$times$を達成している。
論文 参考訳(メタデータ) (2021-07-29T07:46:49Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL) with
Lazy Clients [124.48732110742623]
フェデレートラーニング(FL)にブロックチェーンを統合する新しいフレームワークを提案する。
BLADE-FLは、プライバシー保護、改ざん抵抗、学習の効果的な協力の点で優れたパフォーマンスを持っている。
遅延クライアントは、他人のトレーニングされたモデルを盗聴し、不正行為を隠すために人工的なノイズを加える。
論文 参考訳(メタデータ) (2020-12-02T12:18:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。