論文の概要: Advancing Practical Homomorphic Encryption for Federated Learning: Theoretical Guarantees and Efficiency Optimizations
- arxiv url: http://arxiv.org/abs/2509.20476v1
- Date: Wed, 24 Sep 2025 18:43:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.54159
- Title: Advancing Practical Homomorphic Encryption for Federated Learning: Theoretical Guarantees and Efficiency Optimizations
- Title(参考訳): フェデレートラーニングのための実践的同型暗号化の促進:理論的保証と効率最適化
- Authors: Ren-Yi Huang, Dumindu Samaraweera, Prashant Shekhar, J. Morris Chang,
- Abstract要約: Federated Learning(FL)は、クライアントデバイスにローカルに保存された生データを保持することによって、データのプライバシを維持しながら、協調的なモデルトレーニングを可能にする。
近年の研究では、モデル勾配の共有がモデル反転攻撃の脆弱性を生み出すことが示されている。
本稿では,モデル反転攻撃に対する防御として選択暗号の基本原理を理論的に解析する枠組みを提案する。
- 参考スコア(独自算出の注目度): 1.8245990984484237
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) enables collaborative model training while preserving data privacy by keeping raw data locally stored on client devices, preventing access from other clients or the central server. However, recent studies reveal that sharing model gradients creates vulnerability to Model Inversion Attacks, particularly Deep Leakage from Gradients (DLG), which reconstructs private training data from shared gradients. While Homomorphic Encryption has been proposed as a promising defense mechanism to protect gradient privacy, fully encrypting all model gradients incurs high computational overhead. Selective encryption approaches aim to balance privacy protection with computational efficiency by encrypting only specific gradient components. However, the existing literature largely overlooks a theoretical exploration of the spectral behavior of encrypted versus unencrypted parameters, relying instead primarily on empirical evaluations. To address this gap, this paper presents a framework for theoretical analysis of the underlying principles of selective encryption as a defense against model inversion attacks. We then provide a comprehensive empirical study that identifies and quantifies the critical factors, such as model complexity, encryption ratios, and exposed gradients, that influence defense effectiveness. Our theoretical framework clarifies the relationship between gradient selection and privacy preservation, while our experimental evaluation demonstrates how these factors shape the robustness of defenses against model inversion attacks. Collectively, these contributions advance the understanding of selective encryption mechanisms and offer principled guidance for designing efficient, scalable, privacy-preserving federated learning systems.
- Abstract(参考訳): Federated Learning (FL)は、クライアントデバイスにローカルに保存された生データを保存し、他のクライアントや中央サーバからのアクセスを防止し、データのプライバシを維持しながら協調的なモデルトレーニングを可能にする。
しかし、最近の研究では、モデル勾配の共有がモデル反転攻撃(特にグラディエントからのディープリーク)の脆弱性を生じさせ、共有勾配からプライベートトレーニングデータを再構築している。
同型暗号化は、勾配のプライバシーを保護するための有望な防御機構として提案されているが、全てのモデル勾配を完全に暗号化することは高い計算オーバーヘッドを引き起こす。
選択暗号化アプローチは、特定の勾配コンポーネントのみを暗号化することで、プライバシ保護と計算効率のバランスをとることを目的としている。
しかし、既存の文献は、暗号化されたパラメータと暗号化されていないパラメータのスペクトルの振る舞いを理論的に見落としており、代わりに主に経験的評価に依存している。
このギャップに対処するために,モデル反転攻撃に対する防御として選択暗号の基本原理を理論的に解析する枠組みを提案する。
次に、防衛効果に影響を与えるモデル複雑性、暗号化比、露出勾配などの重要な要因を特定し、定量化する総合的な実証的研究を行う。
我々の理論的枠組みは、勾配選択とプライバシー保護の関係を明らかにする一方で、これらの要因がモデル反転攻撃に対する防御の堅牢性をいかに形成するかを実験的に評価する。
これらの貢献は、選択的な暗号化メカニズムの理解を促進し、効率的でスケーラブルでプライバシーを保護したフェデレーション学習システムを設計するための原則化されたガイダンスを提供する。
関連論文リスト
- Evaluating Selective Encryption Against Gradient Inversion Attacks [15.000605214632243]
グラディエント・インバージョン・アタックは、フェデレート学習のような分散トレーニングフレームワークに重大なプライバシー上の脅威をもたらす。
本稿では,最先端攻撃に対する重要な指標の異なる選択的暗号化手法を体系的に評価する。
論文 参考訳(メタデータ) (2025-08-06T07:31:43Z) - Secure Distributed Learning for CAVs: Defending Against Gradient Leakage with Leveled Homomorphic Encryption [0.0]
ホモモルフィック暗号化(HE)は、差分プライバシー(DP)とセキュアマルチパーティ計算(SMPC)に代わる有望な代替手段を提供する
資源制約のある環境において,フェデレートラーニング(FL)に最も適したHE方式の評価を行った。
我々は、モデル精度を維持しながら、Gradients (DLG)攻撃からのDeep Leakageを効果的に軽減するHEベースのFLパイプラインを開発した。
論文 参考訳(メタデータ) (2025-06-09T16:12:18Z) - FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Gradient Leakage Defense with Key-Lock Module for Federated Learning [5.380009458891537]
Federated Learning(FL)は、プライバシ保護機械学習アプローチとして広く採用されている。
最近の発見は、プライバシーが侵害され、共有勾配から機密情報が回収される可能性があることを示している。
秘密鍵ロックモジュールを用いて任意のモデルアーキテクチャをセキュアにするための新しい勾配リーク防御手法を提案する。
論文 参考訳(メタデータ) (2023-05-06T16:47:52Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。