論文の概要: DictPFL: Efficient and Private Federated Learning on Encrypted Gradients
- arxiv url: http://arxiv.org/abs/2510.21086v1
- Date: Fri, 24 Oct 2025 01:58:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.354796
- Title: DictPFL: Efficient and Private Federated Learning on Encrypted Gradients
- Title(参考訳): DictPFL: 暗号化されたグラディエントによる効率的でプライベートなフェデレーション学習
- Authors: Jiaqi Xue, Mayank Kumar, Yuzhang Shang, Shangqian Gao, Rui Ning, Mengxin Zheng, Xiaoqian Jiang, Qian Lou,
- Abstract要約: 最小限のオーバーヘッドで完全な勾配保護を実現するフレームワークであるDictPFLを提案する。
送信されていないパラメータをローカルに保ちながら、送信されたすべての勾配を暗号化し、重い計算をすることなくプライバシを保存する。
実験によると、DictPFLは通信コストを402-748$times$で削減し、完全に暗号化されたFLと比較して28-65$times$でトレーニングを加速する。
- 参考スコア(独自算出の注目度): 46.7448838842482
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) enables collaborative model training across institutions without sharing raw data. However, gradient sharing still risks privacy leakage, such as gradient inversion attacks. Homomorphic Encryption (HE) can secure aggregation but often incurs prohibitive computational and communication overhead. Existing HE-based FL methods sit at two extremes: encrypting all gradients for full privacy at high cost, or partially encrypting gradients to save resources while exposing vulnerabilities. We present DictPFL, a practical framework that achieves full gradient protection with minimal overhead. DictPFL encrypts every transmitted gradient while keeping non-transmitted parameters local, preserving privacy without heavy computation. It introduces two key modules: Decompose-for-Partial-Encrypt (DePE), which decomposes model weights into a static dictionary and an updatable lookup table, only the latter is encrypted and aggregated, while the static dictionary remains local and requires neither sharing nor encryption; and Prune-for-Minimum-Encrypt (PrME), which applies encryption-aware pruning to minimize encrypted parameters via consistent, history-guided masks. Experiments show that DictPFL reduces communication cost by 402-748$\times$ and accelerates training by 28-65$\times$ compared to fully encrypted FL, while outperforming state-of-the-art selective encryption methods by 51-155$\times$ in overhead and 4-19$\times$ in speed. Remarkably, DictPFL's runtime is within 2$\times$ of plaintext FL, demonstrating for the first time, that HE-based private federated learning is practical for real-world deployment. The code is publicly available at https://github.com/UCF-ML-Research/DictPFL.
- Abstract(参考訳): フェデレートラーニング(FL)は、生データを共有せずに機関間で協調的なモデルトレーニングを可能にする。
しかし、グラデーション共有は、グラデーションインバージョンアタックのようなプライバシー漏洩のリスクを依然として負う。
ホモモルフィック暗号化(HE)はアグリゲーションを確保することができるが、しばしば計算や通信のオーバーヘッドを抑える。
既存のHEベースのFLメソッドは、高コストで全プライバシのグラデーションを暗号化する、あるいは脆弱性を公開しながらリソースを節約するためのグラデーションを部分的に暗号化する、という2つの極端な方法だ。
我々は、最小限のオーバーヘッドで完全な勾配保護を実現するための実践的なフレームワークであるDictPFLを提案する。
DictPFLは送信されたすべての勾配を暗号化し、送信されていないパラメータをローカルに保持し、重い計算をすることなくプライバシを保存する。
モデル重みを静的辞書とアップダブルなルックアップテーブルに分解するDePE(Decompose-for-Partial-Encrypt)と、静的辞書のみが暗号化され集約されるが、静的辞書はローカルであり、共有も暗号化も必要としないPrune-for-Minimum-Encrypt(PrME)である。
実験によると、DictPFLは通信コストを402-748$\times$に減らし、トレーニングを28-65$\times$に短縮する。
注目すべきは、DictPFLのランタイムは平文FLの2$\times$の範囲内であり、HEベースのプライベートフェデレーション学習が現実世界のデプロイに有効であることを初めて示すことである。
コードはhttps://github.com/UCF-ML-Research/DictPFLで公開されている。
関連論文リスト
- DP-Fusion: Token-Level Differentially Private Inference for Large Language Models [51.71591819896191]
大規模言語モデル(LLM)は、推論時にプライバシを保存しない。
DP-Fusion は LLM の出力にコンテキスト内のトークンの集合が持つ影響を証明的に束縛する。
提案手法は, 理論的および実証的プライバシを大幅に改善した, 証明可能な民営化文書を作成する。
論文 参考訳(メタデータ) (2025-07-06T20:49:39Z) - Secure Multi-Key Homomorphic Encryption with Application to Privacy-Preserving Federated Learning [18.399679909318394]
マルチパーティ安全な計算タスクに適用した場合、CDKSスキームにおける重要なセキュリティ脆弱性を特定する。
マルチキーBFVおよびCKKSフレームワークに新しいマスキング機構を組み込んだ新しいスキームSMHEを提案する。
SMHEを用いてPPFLアプリケーションを実装し,ランタイム評価のオーバーヘッドを最小限に抑えて,セキュリティを大幅に改善することを示した。
論文 参考訳(メタデータ) (2025-06-25T03:28:25Z) - QuanCrypt-FL: Quantized Homomorphic Encryption with Pruning for Secure Federated Learning [0.48342038441006796]
我々は,攻撃に対する防御を強化するために,低ビット量子化とプルーニング技術を組み合わせた新しいアルゴリズムQuanCrypt-FLを提案する。
我々は、MNIST、CIFAR-10、CIFAR-100データセットに対するアプローチを検証し、最先端手法と比較して優れた性能を示す。
QuanCrypt-FLは、最大9倍高速暗号化、16倍高速復号化、1.5倍高速推論を実現し、トレーニング時間を最大3倍短縮する。
論文 参考訳(メタデータ) (2024-11-08T01:46:00Z) - FheFL: Fully Homomorphic Encryption Friendly Privacy-Preserving Federated Learning with Byzantine Users [19.209830150036254]
従来の機械学習パラダイムにおけるデータプライバシの問題を軽減するために、フェデレートラーニング(FL)技術が開発された。
次世代のFLアーキテクチャでは、モデル更新をサーバから保護するための暗号化と匿名化技術が提案されている。
本稿では,完全同型暗号(FHE)に基づく新しいFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-08T11:20:00Z) - Federated Nearest Neighbor Machine Translation [66.8765098651988]
本稿では,FedNN(FedNN)機械翻訳フレームワークを提案する。
FedNNは1ラウンドの記憶に基づくインタラクションを活用して、異なるクライアント間で知識を共有する。
実験の結果,FedAvgと比較して,FedNNは計算コストと通信コストを著しく削減することがわかった。
論文 参考訳(メタデータ) (2023-02-23T18:04:07Z) - THE-X: Privacy-Preserving Transformer Inference with Homomorphic
Encryption [112.02441503951297]
トランスフォーマーモデルのプライバシ保護推論は、クラウドサービスユーザの要求に基づいています。
我々は、事前訓練されたモデルのプライバシ保存推論を可能にするトランスフォーマーの近似アプローチである$textitTHE-X$を紹介した。
論文 参考訳(メタデータ) (2022-06-01T03:49:18Z) - Achieving Personalized Federated Learning with Sparse Local Models [75.76854544460981]
フェデレートラーニング(FL)は異種分散データに対して脆弱である。
この問題に対処するため、個人ごとに専用のローカルモデルを作成するためにパーソナライズされたFL(PFL)が提案された。
既存のPFLソリューションは、異なるモデルアーキテクチャに対する不満足な一般化を示すか、あるいは膨大な余分な計算とメモリを犠牲にするかのどちらかである。
我々は、パーソナライズされたスパースマスクを用いて、エッジ上のスパースローカルモデルをカスタマイズする新しいPFLスキームFedSpaを提案する。
論文 参考訳(メタデータ) (2022-01-27T08:43:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。