論文の概要: Privacy-Preserving Federated Learning from Partial Decryption Verifiable Threshold Multi-Client Functional Encryption
- arxiv url: http://arxiv.org/abs/2511.12936v1
- Date: Mon, 17 Nov 2025 03:44:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.641974
- Title: Privacy-Preserving Federated Learning from Partial Decryption Verifiable Threshold Multi-Client Functional Encryption
- Title(参考訳): 部分復号化によるプライバシ保護フェデレーション学習
- Authors: Minjie Wang, Jinguang Han, Weizhi Meng,
- Abstract要約: フェデレーテッドラーニングでは、複数のパーティが協力して、自身のプライベートデータを直接交換することなくモデルをトレーニングできる。
部分復号化検証しきい値のマルチクライアント関数暗号化方式を構築する。
VTSAFLは、クライアントに集計結果の検証を許可し、計算オーバーヘッドと通信オーバーヘッドの両方を同時に最小化する。
- 参考スコア(独自算出の注目度): 8.905928020204232
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In federated learning, multiple parties can cooperate to train the model without directly exchanging their own private data, but the gradient leakage problem still threatens the privacy security and model integrity. Although the existing scheme uses threshold cryptography to mitigate the inference attack, it can not guarantee the verifiability of the aggregation results, making the system vulnerable to the threat of poisoning attack. We construct a partial decryption verifiable threshold multi client function encryption scheme, and apply it to Federated learning to implement the federated learning verifiable threshold security aggregation protocol (VTSAFL). VTSAFL empowers clients to verify aggregation results, concurrently minimizing both computational and communication overhead. The size of the functional key and partial decryption results of the scheme are constant, which provides efficiency guarantee for large-scale deployment. The experimental results on MNIST dataset show that vtsafl can achieve the same accuracy as the existing scheme, while reducing the total training time by more than 40%, and reducing the communication overhead by up to 50%. This efficiency is critical for overcoming the resource constraints inherent in Internet of Things (IoT) devices.
- Abstract(参考訳): 連合学習では、複数のパーティが自身のプライベートデータを直接交換することなくモデルトレーニングに協力することができるが、勾配リーク問題は依然としてプライバシのセキュリティとモデルの整合性を脅かしている。
既存の方式では、しきい値暗号を用いて推論攻撃を軽減しているが、アグリゲーション結果の妥当性を保証できないため、毒殺攻撃の脅威に脆弱である。
我々は、部分復号化検証しきい値の暗号方式を構築し、それをフェデレーション学習に適用して、フェデレーション学習検証しきい値のセキュリティアグリゲーションプロトコル(VTSAFL)を実装する。
VTSAFLは、クライアントに集計結果の検証を許可し、計算オーバーヘッドと通信オーバーヘッドの両方を同時に最小化する。
機能キーのサイズとスキームの部分復号化結果は一定であり、大規模展開の効率性を保証する。
MNISTデータセットの実験結果は、vtsaflが既存のスキームと同じ精度でトレーニング時間を40%以上削減し、通信オーバーヘッドを最大50%削減できることを示している。
この効率性は、IoT(Internet of Things)デバイスに固有のリソース制約を克服するために重要である。
関連論文リスト
- PRISM: Privacy-preserving Inference System with Homomorphic Encryption and Modular Activation [0.8197459420866039]
ホモモーフィック暗号化(HE)は、暗号化されたデータの計算を可能にするソリューションを提供する。
HEは、非線形アクティベーション機能に依存しているため、畳み込みニューラルネットワーク(CNN)のような機械学習モデルとは相容れないままである。
この研究は、標準非線形関数を準同型互換近似に置き換える最適化されたフレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-11T03:57:12Z) - Information-Theoretic Decentralized Secure Aggregation with Collusion Resilience [95.33295072401832]
情報理論の観点から分散型セキュアアグリゲーション(DSA)の問題点を考察する。
DSAの最小到達可能な通信量と秘密鍵率を指定する最適レート領域を特徴付ける。
本研究は,DSAの基本性能限界を確立し,信頼性の高い通信効率の高いプロトコルの設計に関する知見を提供する。
論文 参考訳(メタデータ) (2025-08-01T12:51:37Z) - Conformal Prediction for Privacy-Preserving Machine Learning [83.88591755871734]
AESで暗号化されたMNISTデータセットの変種を用いて、暗号化されたドメインに直接適用しても、コンフォーマル予測法が有効であることを示す。
我々の研究は、安全でプライバシーに配慮した学習システムにおける原則的不確実性定量化の基礎を定めている。
論文 参考訳(メタデータ) (2025-07-13T15:29:14Z) - Privacy-Preserving Federated Learning via Homomorphic Adversarial Networks [19.876110109857635]
ホモモルフィック・Adversarial Networks (HAN) は、プライバシー攻撃に対して堅牢である。
HANは暗号化集約速度を6,075倍にし、通信オーバーヘッドは29.2倍に増加した。
従来のMK-HE方式と比較して、HANは暗号化集約速度を6,075倍に向上し、通信オーバーヘッドは29.2倍増加した。
論文 参考訳(メタデータ) (2024-12-02T15:59:35Z) - EncCluster: Scalable Functional Encryption in Federated Learning through Weight Clustering and Probabilistic Filters [3.9660142560142067]
フェデレートラーニング(FL)は、アグリゲーションサーバにのみローカルモデルの更新を通信することで、分散デバイス間のモデルトレーニングを可能にする。
FLはモデル更新送信中に推論攻撃に弱いままである。
本稿では、重みクラスタリングによるモデル圧縮と、最近の分散型FEとプライバシ強化データエンコーディングを統合する新しい方法であるEncClusterを提案する。
論文 参考訳(メタデータ) (2024-06-13T14:16:50Z) - Enabling Privacy-preserving Model Evaluation in Federated Learning via Fully Homomorphic Encryption [1.9662978733004604]
センシティブなデータを集中化せずにモデルを協調的にトレーニングする能力によって、フェデレートラーニングが急速に普及している。
評価フェーズでは、文献で適切に対処されていない重要なプライバシーリスクが提示される。
完全同型暗号を利用した新しい評価手法を提案する。
論文 参考訳(メタデータ) (2024-03-21T14:36:55Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。