論文の概要: SelectiveShield: Lightweight Hybrid Defense Against Gradient Leakage in Federated Learning
- arxiv url: http://arxiv.org/abs/2508.04265v1
- Date: Wed, 06 Aug 2025 09:50:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.662651
- Title: SelectiveShield: Lightweight Hybrid Defense Against Gradient Leakage in Federated Learning
- Title(参考訳): SelectiveShield:フェデレートラーニングにおけるグラディエントリークに対する軽量ハイブリッド防御
- Authors: Borui Li, Li Yan, Jianmin Liu,
- Abstract要約: フェデレートラーニング(FL)は、分散データの協調モデルトレーニングを可能にするが、勾配リーク攻撃には弱い。
差分プライバシー(DP)や同型暗号化(HE)といった既存の防御機構は、しばしばプライバシ、モデルユーティリティ、システムオーバーヘッドのトレードオフをもたらす。
準同型暗号と差分プライバシーを適応的に統合する軽量ハイブリッド防衛フレームワークであるSelectiveShieldを提案する。
- 参考スコア(独自算出の注目度): 4.501710235227319
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) enables collaborative model training on decentralized data but remains vulnerable to gradient leakage attacks that can reconstruct sensitive user information. Existing defense mechanisms, such as differential privacy (DP) and homomorphic encryption (HE), often introduce a trade-off between privacy, model utility, and system overhead, a challenge that is exacerbated in heterogeneous environments with non-IID data and varying client capabilities. To address these limitations, we propose SelectiveShield, a lightweight hybrid defense framework that adaptively integrates selective homomorphic encryption and differential privacy. SelectiveShield leverages Fisher information to quantify parameter sensitivity, allowing clients to identify critical parameters locally. Through a collaborative negotiation protocol, clients agree on a shared set of the most sensitive parameters for protection via homomorphic encryption. Parameters that are uniquely important to individual clients are retained locally, fostering personalization, while non-critical parameters are protected with adaptive differential privacy noise. Extensive experiments demonstrate that SelectiveShield maintains strong model utility while significantly mitigating gradient leakage risks, offering a practical and scalable defense mechanism for real-world federated learning deployments.
- Abstract(参考訳): フェデレートラーニング(FL)は、分散データ上で協調的なモデルトレーニングを可能にするが、機密性の高いユーザ情報を再構築可能な勾配リーク攻撃に弱いままである。
差分プライバシー(DP)や同型暗号化(HE)といった既存の防御機構は、プライバシ、モデルユーティリティ、システムオーバヘッドのトレードオフをもたらすことが多い。
これらの制限に対処するため,選択的同型暗号と差分プライバシーを適応的に統合する軽量ハイブリッド防衛フレームワークであるSelectiveShieldを提案する。
SelectiveShieldはFisher情報を利用してパラメータの感度を定量化し、クライアントが重要なパラメータをローカルに識別できるようにする。
協調交渉プロトコルを通じて、クライアントはホモモルフィック暗号化を通じて保護のための最も敏感なパラメータの共有セットに合意する。
個々のクライアントにとってユニークなパラメータは局所的に保持され、パーソナライゼーションが促進される一方、非クリティカルなパラメータは適応的な差分プライバシーノイズによって保護される。
大規模な実験では、SelectiveShieldは強力なモデルユーティリティを維持しながら、勾配リークのリスクを大幅に軽減し、現実のフェデレーション学習デプロイメントのための実用的でスケーラブルな防御メカニズムを提供する。
関連論文リスト
- SenseCrypt: Sensitivity-guided Selective Homomorphic Encryption for Joint Federated Learning in Cross-Device Scenarios [7.594528129456989]
ホモモルフィック暗号化(HE)は、フェデレートラーニング(FL)の確保に有効であるが、高いオーバーヘッドと適応コストに悩まされている。
我々は、デバイス間FLクライアント毎のセキュリティとHEオーバーヘッドを適応的にバランスさせるために、感性誘導型選択型EnCryptionフレームワークであるSenseCryptを提案する。
実験では、SenseCryptは最先端の反転攻撃に対するセキュリティを確保し、IIDデータと同様に通常のモデルの精度を達成し、従来のHE手法と比較してトレーニング時間を58.4%から88.7%削減している。
論文 参考訳(メタデータ) (2025-08-06T05:42:41Z) - Machine Learning with Privacy for Protected Attributes [56.44253915927481]
差分プライバシー(DP)の定義を洗練し、機能差分プライバシー(FDP)と呼ばれるより汎用的で柔軟なフレームワークを作成する。
私たちの定義はシミュレーションに基づいており、プライバシの追加/削除と置き換えの両方が可能で、保護された機能と非保護された機能の任意の分離を処理できます。
各種機械学習タスクにフレームワークを適用し,パブリック機能が利用可能であればDP学習モデルの実用性を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2025-06-24T17:53:28Z) - Secure Distributed Learning for CAVs: Defending Against Gradient Leakage with Leveled Homomorphic Encryption [0.0]
ホモモルフィック暗号化(HE)は、差分プライバシー(DP)とセキュアマルチパーティ計算(SMPC)に代わる有望な代替手段を提供する
資源制約のある環境において,フェデレートラーニング(FL)に最も適したHE方式の評価を行った。
我々は、モデル精度を維持しながら、Gradients (DLG)攻撃からのDeep Leakageを効果的に軽減するHEベースのFLパイプラインを開発した。
論文 参考訳(メタデータ) (2025-06-09T16:12:18Z) - SHE-LoRA: Selective Homomorphic Encryption for Federated Tuning with Heterogeneous LoRA [12.458373666338082]
SHE-LoRAは選択的同型暗号と低ランク適応を統合している。
SHE-LoRAは,非プライベートベースラインに匹敵する性能を維持していることを示す。
また、通信オーバーヘッドを94.901%削減し、暗号化オーバーヘッドを99.829%削減する。
論文 参考訳(メタデータ) (2025-05-27T11:36:18Z) - PWC-MoE: Privacy-Aware Wireless Collaborative Mixture of Experts [59.5243730853157]
クラウドサーバにホストされる大規模言語モデル(LLM)は、ローカルデバイス上の計算とストレージの負担を軽減するが、プライバシの懸念を高める。
小規模言語モデル(SLM)は、ローカルで実行されるためプライバシーが向上するが、複雑なタスクではパフォーマンスが制限される。
帯域幅制約下での計算コスト,性能,プライバシ保護のバランスをとるために,プライバシを意識したPWC-MoE(PWC-MoE)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-13T16:27:07Z) - Privacy-Preserving Federated Embedding Learning for Localized Retrieval-Augmented Generation [60.81109086640437]
我々はFedE4RAG(Federated Retrieval-Augmented Generation)と呼ばれる新しいフレームワークを提案する。
FedE4RAGはクライアント側RAG検索モデルの協調トレーニングを容易にする。
モデルパラメータの保護にフェデレート学習の準同型暗号化を適用する。
論文 参考訳(メタデータ) (2025-04-27T04:26:02Z) - FedRand: Enhancing Privacy in Federated Learning with Randomized LoRA Subparameter Updates [58.18162789618869]
フェデレートラーニング(FL)は、モデルを分散的にトレーニングするための広く使われているフレームワークである。
我々はFedRandフレームワークを提案し、クライアントパラメータの完全な集合を開示するのを避ける。
我々はFedRandがMIAに対するロバスト性を改善することを、関連するベースラインと比較して実証的に検証する。
論文 参考訳(メタデータ) (2025-03-10T11:55:50Z) - A New Federated Learning Framework Against Gradient Inversion Attacks [17.3044168511991]
Federated Learning (FL)は、クライアントが生データを共有せずに機械学習モデルを集合的にトレーニングできるようにすることで、データのプライバシを保護することを目的としている。
近年の研究では、FL中に交換された情報がグラディエント・インバージョン・アタック(GIA)の対象であることが示されている。
論文 参考訳(メタデータ) (2024-12-10T04:53:42Z) - RecUP-FL: Reconciling Utility and Privacy in Federated Learning via
User-configurable Privacy Defense [9.806681555309519]
フェデレートラーニング(FL)は、クライアントがプライベートデータを共有せずに、協力的にモデルをトレーニングすることを可能にする。
近年の研究では、共有勾配によってプライベート情報が漏洩する可能性があることが示されている。
本稿では、ユーザ指定の機密属性により焦点を絞ることができる、ユーザ設定可能なプライバシ保護(RecUP-FL)を提案する。
論文 参考訳(メタデータ) (2023-04-11T10:59:45Z) - FedCC: Robust Federated Learning against Model Poisoning Attacks [0.0]
フェデレートラーニング(Federated Learning)は、プライバシの問題に対処するために設計された分散フレームワークである。
新たなアタックサーフェスを導入しており、データは独立に、そしてIdentically Distributedである場合、特に困難である。
我々は,モデル中毒に対する簡易かつ効果的な新しい防御アルゴリズムであるFedCCを提案する。
論文 参考訳(メタデータ) (2022-12-05T01:52:32Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。