論文の概要: SVAFD: A Secure and Verifiable Co-Aggregation Protocol for Federated Distillation
- arxiv url: http://arxiv.org/abs/2505.13319v1
- Date: Mon, 19 May 2025 16:30:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.736318
- Title: SVAFD: A Secure and Verifiable Co-Aggregation Protocol for Federated Distillation
- Title(参考訳): SVAFD:フェデレート蒸留のためのセキュアで検証可能な共凝集プロトコル
- Authors: Tian Wen, Sheng Sun, Yuwei Wang, Peiyan Chen, Zhiyuan Wu, Min Liu, Bo Gao,
- Abstract要約: フェデレート蒸留(FD)用に設計された最初のプロトコルであるSVAFDを提案する。
クライアントとサーバの責務を再定義する。
SVAFDはストラグラーやクライアントの衝突に耐性があり、現実世界のアプリケーションにおける動的ネットワークに適している。
- 参考スコア(独自算出の注目度): 10.234754822281774
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Secure Aggregation (SA) is an indispensable component of Federated Learning (FL) that concentrates on privacy preservation while allowing for robust aggregation. However, most SA designs rely heavily on the unrealistic assumption of homogeneous model architectures. Federated Distillation (FD), which aggregates locally computed logits instead of model parameters, introduces a promising alternative for cooperative training in heterogeneous model settings. Nevertheless, we recognize two major challenges in implementing SA for FD. (i) Prior SA designs encourage a dominant server, who is solely responsible for collecting, aggregating and distributing. Such central authority facilitates server to forge aggregation proofs or collude to bypass the claimed security guarantees; (ii) Existing SA, tailored for FL models, overlook the intrinsic properties of logits, making them unsuitable for FD. To address these challenges, we propose SVAFD, the first SA protocol that is specifically designed for FD. At a high level, SVAFD incorporates two innovations: (i) a multilateral co-aggregation method tha redefines the responsibilities of clients and server. Clients autonomously evaluate and aggregate logits shares locally with a lightweight coding scheme, while the server handles ciphertext decoding and performs the task of generating verification proofs; (ii) a quality-aware knowledge filtration method that facilitates biased logits exclusion against poisoning attacks. Moreover, SVAFD is resilient to stragglers and colluding clients, making it well-suited for dynamic networks in real-world applications. We have implemented the SVAFD prototype over four emerging FD architectures and evaluated it against poisoning and inference attacks. Results demonstrate that SVAFD improves model accuracy, making it a significant step forward in secure and verifiable aggregation for heterogeneous FL systems.
- Abstract(参考訳): セキュアアグリゲーション(SA)は、堅牢なアグリゲーションを可能にしながら、プライバシ保護に集中するフェデレートラーニング(FL)の不可欠なコンポーネントである。
しかし、ほとんどのSA設計は同質なモデルアーキテクチャの非現実的な仮定に大きく依存している。
モデルパラメータの代わりに局所的に計算されたロジットを集約するFederated Distillation (FD)は、異種モデル設定における協調トレーニングのための有望な代替手段である。
にもかかわらず、我々はFDのためのSAを実装する上で大きな課題を2つ認識している。
i) 事前のSA設計は、収集、集約、配布の責任のみを負う支配的なサーバを奨励します。
このような中央機関は,サーバに対して,要求されたセキュリティ保証を回避すべく,集約証明の偽造や共謀を促進させる。
(II)既存のSAは、FLモデル用に調整され、ロジットの本質的な性質を見落とし、FDには適さない。
これらの課題に対処するため、我々はFD用に特別に設計された最初のSAプロトコルであるSVAFDを提案する。
SVAFDは2つのイノベーションを取り入れています。
i)クライアントとサーバの責務を再定義する多面的協調集約手法。
クライアントは、局所的にロジットの共有を軽量な符号化方式で評価し、集約し、一方、サーバは暗号文の復号処理を行い、検証証明を生成するタスクを実行する。
(二)毒殺攻撃に対する偏りのある丸太の排除を容易にする品質に配慮した知識濾過法。
さらにSVAFDは、ストラグラーやクライアントの衝突に耐性があり、現実世界のアプリケーションにおける動的ネットワークに適している。
SVAFDのプロトタイプを4つの新しいFDアーキテクチャ上で実装し,毒や推論攻撃に対して評価した。
その結果,SVAFDはモデル精度を向上し,不均質FLシステムに対する安全かつ検証可能なアグリゲーションにおいて重要な一歩を踏み出した。
関連論文リスト
- Byzantine-Resilient Over-the-Air Federated Learning under Zero-Trust Architecture [68.83934802584899]
我々は,セキュアな適応クラスタリング(FedSAC)を用いたフェデレーション学習(Federated Learning)と呼ばれる,無線通信のための新しいビザンチン・ロバストFLパラダイムを提案する。
FedSACは、デバイスの一部をゼロ信頼アーキテクチャ(ZTA)ベースのビザンティン識別と適応デバイスクラスタリングによる攻撃から保護することを目的としている。
実験精度と収束率の両面から,提案手法よりもFedSACの方が優れていることを示す。
論文 参考訳(メタデータ) (2025-03-24T01:56:30Z) - Dual Defense: Enhancing Privacy and Mitigating Poisoning Attacks in Federated Learning [10.102889257118145]
フェデレート・ラーニング(FL)は、本質的にプライバシー侵害や毒殺攻撃の影響を受けやすい。
本稿では,DDF(Dual Defense Federated Learning)フレームワークを紹介する。
DDFedは、新たな参加者の役割を導入したり、既存のFLトポロジを破壊したりすることなく、プライバシー保護を強化し、毒殺攻撃を緩和する。
論文 参考訳(メタデータ) (2025-02-08T12:28:20Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - FedAA: A Reinforcement Learning Perspective on Adaptive Aggregation for Fair and Robust Federated Learning [5.622065847054885]
Federated Learning (FL)は、分散デバイス間でのプライバシ保護モデルトレーニングのための有望なアプローチとして登場した。
我々はtextbfAdaptive textbfAggregation を通じてクライアントのコントリビューションを最適化する textbfFedAA という新しい手法を導入し、悪意のあるクライアントに対するモデルロバスト性を高める。
論文 参考訳(メタデータ) (2024-02-08T10:22:12Z) - Logits Poisoning Attack in Federated Distillation [8.728629314547248]
FDLA(Federated Distillation, FD)を応用した中毒予防法について紹介する。
LPAがクライアントモデルの精度を効果的に損なうことを実証し、この点において確立されたベースラインアルゴリズムよりも優れていることを示す。
以上の結果から,FD設定における堅牢な防御機構の必要性が示唆された。
論文 参考訳(メタデータ) (2024-01-08T06:18:46Z) - GIFD: A Generative Gradient Inversion Method with Feature Domain
Optimization [52.55628139825667]
Federated Learning(FL)は、クライアントのプライバシを保護するための有望な分散機械学習フレームワークとして登場した。
近年の研究では、事前学習された生成逆ネットワーク(GAN)を事前知識として活用することにより、攻撃者が共有勾配を逆転し、FLシステムに対する機密データを回復できることが示されている。
textbfGradient textbfInversion over textbfFeature textbfDomains (GIFD)を提案する。
論文 参考訳(メタデータ) (2023-08-09T04:34:21Z) - Beyond ADMM: A Unified Client-variance-reduced Adaptive Federated
Learning Framework [82.36466358313025]
我々はFedVRAと呼ばれる原始二重FLアルゴリズムを提案し、このアルゴリズムはグローバルモデルの分散還元レベルとバイアスを適応的に制御することができる。
半教師付き画像分類タスクに基づく実験は,既存の手法よりもFedVRAの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-12-03T03:27:51Z) - ScionFL: Efficient and Robust Secure Quantized Aggregation [36.668162197302365]
我々は,フェデレートラーニングのための最初のセキュアアグリゲーションフレームワークであるScionFLを紹介する。
量子化された入力で効率的に動作し、同時に悪意のあるクライアントに対して堅牢性を提供する。
クライアントのオーバーヘッドがなく、サーバのオーバーヘッドも緩やかなため、標準的なFLベンチマークに匹敵する精度が得られます。
論文 参考訳(メタデータ) (2022-10-13T21:46:55Z) - Feature Quantization Improves GAN Training [126.02828112121874]
識別器の特徴量子化(FQ)は、真と偽のデータの両方を共有離散空間に埋め込む。
本手法は,既存のGANモデルに容易に接続でき,訓練における計算オーバーヘッドがほとんどない。
論文 参考訳(メタデータ) (2020-04-05T04:06:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。