論文の概要: SenseCrypt: Sensitivity-guided Selective Homomorphic Encryption for Joint Federated Learning in Cross-Device Scenarios
- arxiv url: http://arxiv.org/abs/2508.04100v1
- Date: Wed, 06 Aug 2025 05:42:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.560791
- Title: SenseCrypt: Sensitivity-guided Selective Homomorphic Encryption for Joint Federated Learning in Cross-Device Scenarios
- Title(参考訳): SenseCrypt: デバイス横断シナリオにおける共同学習のための感性誘導型選択同型暗号化
- Authors: Borui Li, Li Yan, Junhao Han, Jianmin Liu, Lei Yu,
- Abstract要約: ホモモルフィック暗号化(HE)は、フェデレートラーニング(FL)の確保に有効であるが、高いオーバーヘッドと適応コストに悩まされている。
我々は、デバイス間FLクライアント毎のセキュリティとHEオーバーヘッドを適応的にバランスさせるために、感性誘導型選択型EnCryptionフレームワークであるSenseCryptを提案する。
実験では、SenseCryptは最先端の反転攻撃に対するセキュリティを確保し、IIDデータと同様に通常のモデルの精度を達成し、従来のHE手法と比較してトレーニング時間を58.4%から88.7%削減している。
- 参考スコア(独自算出の注目度): 7.594528129456989
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Homomorphic Encryption (HE) prevails in securing Federated Learning (FL), but suffers from high overhead and adaptation cost. Selective HE methods, which partially encrypt model parameters by a global mask, are expected to protect privacy with reduced overhead and easy adaptation. However, in cross-device scenarios with heterogeneous data and system capabilities, traditional Selective HE methods deteriorate client straggling, and suffer from degraded HE overhead reduction performance. Accordingly, we propose SenseCrypt, a Sensitivity-guided selective Homomorphic EnCryption framework, to adaptively balance security and HE overhead per cross-device FL client. Given the observation that model parameter sensitivity is effective for measuring clients' data distribution similarity, we first design a privacy-preserving method to respectively cluster the clients with similar data distributions. Then, we develop a scoring mechanism to deduce the straggler-free ratio of model parameters that can be encrypted by each client per cluster. Finally, for each client, we formulate and solve a multi-objective model parameter selection optimization problem, which minimizes HE overhead while maximizing model security without causing straggling. Experiments demonstrate that SenseCrypt ensures security against the state-of-the-art inversion attacks, while achieving normal model accuracy as on IID data, and reducing training time by 58.4%-88.7% as compared to traditional HE methods.
- Abstract(参考訳): ホモモルフィック暗号化(HE)は、フェデレートラーニング(FL)の確保に有効であるが、高いオーバーヘッドと適応コストに悩まされている。
モデルパラメータの一部をグローバルマスクで部分的に暗号化する選択型HEメソッドは、オーバーヘッドを低減し、適応が容易なプライバシを保護することが期待されている。
しかし、異種データとシステム機能を備えたクロスデバイスシナリオでは、従来のSelective HEメソッドはクライアントのトラグリングを悪化させ、HEオーバーヘッド削減性能の低下に悩まされる。
そこで我々はSenseCryptを提案する。SenseCryptは感性誘導型選択ホモモルフィックなEnCryptionフレームワークで、デバイス間FLクライアント毎のセキュリティとHEオーバーヘッドを適応的にバランスさせる。
モデルパラメータの感度がクライアントのデータ分布の類似性を測定するのに有効であることを示すために,我々はまず,クライアントをそれぞれ類似したデータ分布でクラスタリングするプライバシ保存法を設計する。
そこで我々は,クラスタ毎に各クライアントが暗号化可能なモデルパラメータのストラグラーフリー比を推定するスコアリング機構を開発した。
最後に,各クライアントに対して,階層化を招くことなくモデルセキュリティを最大化しつつ,HEオーバーヘッドを最小限に抑える多目的モデルパラメータ選択最適化問題を定式化し,解決する。
実験では、SenseCryptは最先端の反転攻撃に対するセキュリティを確保し、IIDデータと同様に通常のモデルの精度を達成し、従来のHE手法と比較してトレーニング時間を58.4%から88.7%削減している。
関連論文リスト
- SelectiveShield: Lightweight Hybrid Defense Against Gradient Leakage in Federated Learning [4.501710235227319]
フェデレートラーニング(FL)は、分散データの協調モデルトレーニングを可能にするが、勾配リーク攻撃には弱い。
差分プライバシー(DP)や同型暗号化(HE)といった既存の防御機構は、しばしばプライバシ、モデルユーティリティ、システムオーバーヘッドのトレードオフをもたらす。
準同型暗号と差分プライバシーを適応的に統合する軽量ハイブリッド防衛フレームワークであるSelectiveShieldを提案する。
論文 参考訳(メタデータ) (2025-08-06T09:50:39Z) - SHE-LoRA: Selective Homomorphic Encryption for Federated Tuning with Heterogeneous LoRA [12.458373666338082]
SHE-LoRAは選択的同型暗号と低ランク適応を統合している。
SHE-LoRAは,非プライベートベースラインに匹敵する性能を維持していることを示す。
また、通信オーバーヘッドを94.901%削減し、暗号化オーバーヘッドを99.829%削減する。
論文 参考訳(メタデータ) (2025-05-27T11:36:18Z) - Secure Generalization through Stochastic Bidirectional Parameter Updates Using Dual-Gradient Mechanism [6.03163048890944]
フェデレーテッド・ラーニング(FL)は、分散クライアントにおけるプライバシー保護による協調トレーニングによって注目を集めている。
近年の研究では、FLフレームワーク内であっても、個人データを敵に公開するリスクが指摘されている。
モデルパラメータをきめ細かいレベルで体系的に摂動することで,各クライアントに対して多様なモデルを生成する。
論文 参考訳(メタデータ) (2025-04-03T02:06:57Z) - Optimal Transport-Guided Source-Free Adaptation for Face Anti-Spoofing [58.56017169759816]
本稿では,テスト時に顔のアンチスプーフィングモデルをクライアント自身でターゲットドメインに適応させる新しい手法を提案する。
具体的には,プロトタイプベースモデルと最適トランスポート誘導型アダプタを開発した。
近年の手法と比較して、クロスドメインおよびクロスアタック設定では、HTERが19.17%、AUCが8.58%の平均相対的改善が達成されている。
論文 参考訳(メタデータ) (2025-03-29T06:10:34Z) - A Selective Homomorphic Encryption Approach for Faster Privacy-Preserving Federated Learning [2.942616054218564]
フェデレーテッド・ラーニング(FL)は、医療におけるプライバシー保護機械学習にとって重要なアプローチである。
これらのシステムの現在のセキュリティ実装は、基本的なトレードオフに直面している。
我々は、選択的同型暗号化、差分プライバシー、ビットワイズスクランブルを戦略的に組み合わせて堅牢なセキュリティを実現する新しいアプローチであるFast and Secure Federated Learningを提示する。
論文 参考訳(メタデータ) (2025-01-22T14:37:44Z) - PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - FedAA: A Reinforcement Learning Perspective on Adaptive Aggregation for Fair and Robust Federated Learning [5.622065847054885]
Federated Learning (FL)は、分散デバイス間でのプライバシ保護モデルトレーニングのための有望なアプローチとして登場した。
我々はtextbfAdaptive textbfAggregation を通じてクライアントのコントリビューションを最適化する textbfFedAA という新しい手法を導入し、悪意のあるクライアントに対するモデルロバスト性を高める。
論文 参考訳(メタデータ) (2024-02-08T10:22:12Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - FedCC: Robust Federated Learning against Model Poisoning Attacks [0.0]
フェデレートラーニング(Federated Learning)は、プライバシの問題に対処するために設計された分散フレームワークである。
新たなアタックサーフェスを導入しており、データは独立に、そしてIdentically Distributedである場合、特に困難である。
我々は,モデル中毒に対する簡易かつ効果的な新しい防御アルゴリズムであるFedCCを提案する。
論文 参考訳(メタデータ) (2022-12-05T01:52:32Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - CrowdGuard: Federated Backdoor Detection in Federated Learning [39.58317527488534]
本稿では,フェデレートラーニングにおけるバックドア攻撃を効果的に軽減する新しい防御機構であるCrowdGuardを提案する。
CrowdGuardでは、サーバロケーションのスタック化されたクラスタリングスキームを使用して、クライアントからのフィードバックに対するレジリエンスを高めている。
評価結果は、CrowdGuardがさまざまなシナリオで100%正の正の正の正の負の負の負の値を達成することを示す。
論文 参考訳(メタデータ) (2022-10-14T11:27:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。