論文の概要: Verifiability and Privacy in Federated Learning through Context-Hiding Multi-Key Homomorphic Authenticators
- arxiv url: http://arxiv.org/abs/2509.05162v1
- Date: Fri, 05 Sep 2025 14:57:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.627146
- Title: Verifiability and Privacy in Federated Learning through Context-Hiding Multi-Key Homomorphic Authenticators
- Title(参考訳): コンテキスト型多キー同型認証によるフェデレーション学習における妥当性とプライバシ
- Authors: Simone Bottoni, Giulio Zizzo, Stefano Braghin, Alberto Trombetta,
- Abstract要約: フェデレーテッド・ラーニングは、当初から急速に発展し、現在多くの研究機関、いくつかのフレームワークを持ち、様々な商用製品で販売されている。
悪意のあるクライアントの場合、堅牢性を提供するアルゴリズムはたくさんあります。
本稿では,クライアントが更新の秘密性を損なうことなく,アグリゲータの正しさを検証できる検証可能なフェデレーション学習プロトコルを提案する。
- 参考スコア(独自算出の注目度): 3.8529853362793194
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning has rapidly expanded from its original inception to now have a large body of research, several frameworks, and sold in a variety of commercial offerings. Thus, its security and robustness is of significant importance. There are many algorithms that provide robustness in the case of malicious clients. However, the aggregator itself may behave maliciously, for example, by biasing the model or tampering with the weights to weaken the models privacy. In this work, we introduce a verifiable federated learning protocol that enables clients to verify the correctness of the aggregators computation without compromising the confidentiality of their updates. Our protocol uses a standard secure aggregation technique to protect individual model updates with a linearly homomorphic authenticator scheme that enables efficient, privacy-preserving verification of the aggregated result. Our construction ensures that clients can detect manipulation by the aggregator while maintaining low computational overhead. We demonstrate that our approach scales to large models, enabling verification over large neural networks with millions of parameters.
- Abstract(参考訳): フェデレートラーニングは、当初から急速に拡大し、現在、多くの研究機関、いくつかのフレームワークを持ち、さまざまな商用製品で販売されている。
したがって、その安全性と堅牢性は極めて重要である。
悪意のあるクライアントの場合、堅牢性を提供するアルゴリズムはたくさんあります。
しかし、アグリゲータ自体は、モデルに偏りを付けたり、モデルのプライバシを弱めるために重みをいじったりすることで、悪意ある振る舞いをする可能性がある。
本研究では,クライアントが更新の秘密性を損なうことなく,アグリゲータ計算の正しさを検証できる検証可能なフェデレーション学習プロトコルを提案する。
本プロトコルでは,個々のモデル更新を線形同型認証方式で保護するために,標準のセキュアアグリゲーション技術を用いて,アグリゲーションされた結果の効率よく,プライバシを保った検証を可能にする。
計算オーバーヘッドを低く保ちながら,アグリゲータによる操作をクライアントが検出できるようにする。
我々のアプローチは大規模モデルにスケールし、数百万のパラメータを持つ大規模ニューラルネットワークの検証を可能にします。
関連論文リスト
- Runtime Backdoor Detection for Federated Learning via Representational Dissimilarity Analysis [24.56608572464567]
フェデレーションラーニング(FL)は、分散クライアントからモデル更新を集約することで、共有モデルをトレーニングする。
モデル学習をローカルデータから切り離すことで、FLはバックドア攻撃に対して非常に脆弱になる。
本稿では,悪意のあるクライアントを,正確で安定的で効率的な方法で検出する手法を提案する。
論文 参考訳(メタデータ) (2025-03-06T14:23:18Z) - Privacy-Preserving Verifiable Neural Network Inference Service [4.131956503199438]
我々は,クライアントデータサンプルのプライバシを保存するために,プライバシ保護と検証が可能なCNN推論手法を開発した。
vPINは、クライアントデータのプライバシ保証と証明可能な検証性を提供しながら、証明サイズの観点から高い効率を達成する。
論文 参考訳(メタデータ) (2024-11-12T01:09:52Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - Enabling Privacy-preserving Model Evaluation in Federated Learning via Fully Homomorphic Encryption [1.9662978733004604]
センシティブなデータを集中化せずにモデルを協調的にトレーニングする能力によって、フェデレートラーニングが急速に普及している。
評価フェーズでは、文献で適切に対処されていない重要なプライバシーリスクが提示される。
完全同型暗号を利用した新しい評価手法を提案する。
論文 参考訳(メタデータ) (2024-03-21T14:36:55Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - CrowdGuard: Federated Backdoor Detection in Federated Learning [39.58317527488534]
本稿では,フェデレートラーニングにおけるバックドア攻撃を効果的に軽減する新しい防御機構であるCrowdGuardを提案する。
CrowdGuardでは、サーバロケーションのスタック化されたクラスタリングスキームを使用して、クライアントからのフィードバックに対するレジリエンスを高めている。
評価結果は、CrowdGuardがさまざまなシナリオで100%正の正の正の正の負の負の負の値を達成することを示す。
論文 参考訳(メタデータ) (2022-10-14T11:27:49Z) - PRECAD: Privacy-Preserving and Robust Federated Learning via
Crypto-Aided Differential Privacy [14.678119872268198]
フェデレートラーニング(FL)は、複数の参加するクライアントがデータセットをローカルに保持し、モデル更新のみを交換することで、機械学習モデルを協調的にトレーニングすることを可能にする。
既存のFLプロトコルの設計は、データのプライバシやモデルの堅牢性を損なうような攻撃に対して脆弱であることが示されている。
我々はPreCADと呼ばれるフレームワークを開発し、同時に差分プライバシー(DP)を実現し、暗号の助けを借りてモデル中毒攻撃に対する堅牢性を高める。
論文 参考訳(メタデータ) (2021-10-22T04:08:42Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。