論文の概要: Privacy-Preserving Federated Learning against Malicious Clients Based on Verifiable Functional Encryption
- arxiv url: http://arxiv.org/abs/2506.12846v1
- Date: Sun, 15 Jun 2025 13:38:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:46.997747
- Title: Privacy-Preserving Federated Learning against Malicious Clients Based on Verifiable Functional Encryption
- Title(参考訳): 検証可能な機能暗号化に基づく悪意のあるクライアントに対するプライバシ保護フェデレーション学習
- Authors: Nina Cai, Jinguang Han,
- Abstract要約: フェデレートラーニング(Federated Learning)は、ローカルクライアントデータを公開せずに協調的なモデルトレーニングを可能にする、有望な分散学習パラダイムである。
フェデレーション学習の分散した性質は、悪意のあるクライアントによる攻撃に対して特に脆弱である。
本稿では,検証可能な機能暗号化に基づくプライバシ保護型フェデレーション学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.3683202928838613
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning is a promising distributed learning paradigm that enables collaborative model training without exposing local client data, thereby protect data privacy. However, it also brings new threats and challenges. The advancement of model inversion attacks has rendered the plaintext transmission of local models insecure, while the distributed nature of federated learning makes it particularly vulnerable to attacks raised by malicious clients. To protect data privacy and prevent malicious client attacks, this paper proposes a privacy-preserving federated learning framework based on verifiable functional encryption, without a non-colluding dual-server setup or additional trusted third-party. Specifically, we propose a novel decentralized verifiable functional encryption (DVFE) scheme that enables the verification of specific relationships over multi-dimensional ciphertexts. This scheme is formally treated, in terms of definition, security model and security proof. Furthermore, based on the proposed DVFE scheme, we design a privacy-preserving federated learning framework VFEFL that incorporates a novel robust aggregation rule to detect malicious clients, enabling the effective training of high-accuracy models under adversarial settings. Finally, we provide formal analysis and empirical evaluation of the proposed schemes. The results demonstrate that our approach achieves the desired privacy protection, robustness, verifiability and fidelity, while eliminating the reliance on non-colluding dual-server settings or trusted third parties required by existing methods.
- Abstract(参考訳): フェデレートラーニングは有望な分散学習パラダイムであり、ローカルクライアントデータを公開せずに協調的なモデルトレーニングを可能にし、データのプライバシを保護する。
しかし、それはまた新たな脅威と挑戦をもたらす。
モデル反転攻撃の進展により、ローカルモデルの平文送信は安全でないが、フェデレート学習の分散特性は、悪意のあるクライアントによる攻撃に対して特に脆弱である。
本稿では,データプライバシの保護と悪意のあるクライアント攻撃の防止を目的として,検証可能な機能暗号化に基づくプライバシ保護のためのフェデレーション学習フレームワークを提案する。
具体的には,多次元暗号文上での特定の関係の検証を可能にする分散検証機能暗号(DVFE)方式を提案する。
このスキームは、定義、セキュリティモデル、セキュリティ証明の観点から公式に扱われる。
さらに,提案したDVFEスキームに基づいて,悪意のあるクライアントを検出するための新しいロバストアグリゲーションルールを組み込んだ,プライバシー保護型フェデレーション学習フレームワークVFEFLを設計し,対戦環境下での高精度モデルの効果的なトレーニングを可能にする。
最後に,提案手法の形式解析と実証評価を行う。
その結果,提案手法は,既存の手法で要求される非解決型デュアルサーバ設定や信頼できるサードパーティへの依存を解消しつつ,プライバシー保護,堅牢性,検証可能性,忠実性を達成できることが示唆された。
関連論文リスト
- Confidential Guardian: Cryptographically Prohibiting the Abuse of Model Abstention [65.47632669243657]
不正直な機関は、不確実性の観点からサービスを差別または不正に否定する機構を利用することができる。
我々は、ミラージュと呼ばれる不確実性誘導攻撃を導入することで、この脅威の実践性を実証する。
本研究では,参照データセット上のキャリブレーションメトリクスを分析し,人工的に抑制された信頼度を検出するフレームワークであるConfidential Guardianを提案する。
論文 参考訳(メタデータ) (2025-05-29T19:47:50Z) - Privacy-Preserving Federated Embedding Learning for Localized Retrieval-Augmented Generation [60.81109086640437]
我々はFedE4RAG(Federated Retrieval-Augmented Generation)と呼ばれる新しいフレームワークを提案する。
FedE4RAGはクライアント側RAG検索モデルの協調トレーニングを容易にする。
モデルパラメータの保護にフェデレート学習の準同型暗号化を適用する。
論文 参考訳(メタデータ) (2025-04-27T04:26:02Z) - TAPFed: Threshold Secure Aggregation for Privacy-Preserving Federated Learning [16.898842295300067]
フェデレートラーニング(Federated Learning)は、複数のパーティが個人データを公開せずに機械学習モデルを協調的にトレーニングできるようにすることで、プライバシを高めるコンピューティングパラダイムである。
従来のフェデレートされた学習プラットフォームは、勾配の交換によるプライバシーリークによってプライバシーを保証できない。
本稿では,悪意あるアクターを持つ複数の分散アグリゲータのコンテキストにおいて,プライバシ保護のためのフェデレーション学習を実現するためのTAPFedを提案する。
論文 参考訳(メタデータ) (2025-01-09T08:24:10Z) - Balancing Confidentiality and Transparency for Blockchain-based Process-Aware Information Systems [46.404531555921906]
機密性と透明性の両立を目的とした,ブロックチェーンベースのPAISアーキテクチャを提案する。
スマートコントラクトは公開インタラクションを制定、強制、保存し、属性ベースの暗号化技術は機密情報へのアクセス許可を指定するために採用されている。
論文 参考訳(メタデータ) (2024-12-07T20:18:36Z) - Certifiably Byzantine-Robust Federated Conformal Prediction [49.23374238798428]
本稿では,悪意のあるクライアントに対する堅牢な共形予測を行う新しいフレームワークRob-FCPを提案する。
我々は、さまざまなビザンチン攻撃の下で、悪意のあるクライアントの多様な割合に対するRob-FCPの堅牢性を実証的に実証した。
論文 参考訳(メタデータ) (2024-06-04T04:43:30Z) - FheFL: Fully Homomorphic Encryption Friendly Privacy-Preserving Federated Learning with Byzantine Users [19.209830150036254]
従来の機械学習パラダイムにおけるデータプライバシの問題を軽減するために、フェデレートラーニング(FL)技術が開発された。
次世代のFLアーキテクチャでは、モデル更新をサーバから保護するための暗号化と匿名化技術が提案されている。
本稿では,完全同型暗号(FHE)に基づく新しいFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-08T11:20:00Z) - FedGT: Identification of Malicious Clients in Federated Learning with Secure Aggregation [69.75513501757628]
FedGTは、フェデレーション学習における悪意のあるクライアントを安全なアグリゲーションで識別するための新しいフレームワークである。
我々はPillutlaらによって最近提案された幾何的中央値に基づいて,FedGTがプライベートロバストアグリゲーションアプローチを著しく上回っていることを示す。
論文 参考訳(メタデータ) (2023-05-09T14:54:59Z) - Collusion Resistant Federated Learning with Oblivious Distributed
Differential Privacy [4.951247283741297]
プライバシ保護フェデレーション学習は、分散クライアントの集団が共同で共有モデルを学ぶことを可能にする。
本稿では、このようなクライアントの共謀に対して最初に保護する、難解な分散差分プライバシーに基づく効率的なメカニズムを提案する。
我々は,プロトコルの実行速度,学習精度,および2つのデータセットのプライバシ性能を実証的に分析した。
論文 参考訳(メタデータ) (2022-02-20T19:52:53Z) - Preserving Privacy and Security in Federated Learning [21.241705771577116]
ユーザに対するプライバシ保証と,それらによる毒殺攻撃の検出の両方を提供する,原則的フレームワークを開発する。
我々のフレームワークは、セキュアなアグリゲーションのプライバシー保証に違反することなく、中央サーバが有毒なモデル更新を識別することを可能にする。
論文 参考訳(メタデータ) (2022-02-07T18:40:38Z) - PRECAD: Privacy-Preserving and Robust Federated Learning via
Crypto-Aided Differential Privacy [14.678119872268198]
フェデレートラーニング(FL)は、複数の参加するクライアントがデータセットをローカルに保持し、モデル更新のみを交換することで、機械学習モデルを協調的にトレーニングすることを可能にする。
既存のFLプロトコルの設計は、データのプライバシやモデルの堅牢性を損なうような攻撃に対して脆弱であることが示されている。
我々はPreCADと呼ばれるフレームワークを開発し、同時に差分プライバシー(DP)を実現し、暗号の助けを借りてモデル中毒攻撃に対する堅牢性を高める。
論文 参考訳(メタデータ) (2021-10-22T04:08:42Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。