論文の概要: BDPFL: Backdoor Defense for Personalized Federated Learning via Explainable Distillation
- arxiv url: http://arxiv.org/abs/2503.06554v1
- Date: Sun, 09 Mar 2025 10:59:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:44:57.086590
- Title: BDPFL: Backdoor Defense for Personalized Federated Learning via Explainable Distillation
- Title(参考訳): BDPFL:説明可能な蒸留による個人化フェデレーション学習のためのバックドアディフェンス
- Authors: Chengcheng Zhu, Jiale Zhang, Di Wu, Guodong Long,
- Abstract要約: フェデレートラーニング(Federated Learning)は、複数のクライアントにわたるグローバルモデルの協調トレーニングを促進する分散学習パラダイムである。
我々は,これらの課題に対処するために,BDPFLという,バックドア・ロバストなpFLフレームワークを提案する。
まず、BDPFLは、クライアントが潜在的なバックドアを緩和しながら、パーソナライズされたローカルモデルを学習できるようにする階層的相互蒸留を導入する。
- 参考スコア(独自算出の注目度): 30.400746330423605
- License:
- Abstract: Federated learning is a distributed learning paradigm that facilitates the collaborative training of a global model across multiple clients while preserving the privacy of local datasets. To address inherent challenges related to data heterogeneity and satisfy personalized needs, a new direction within FL, known as personalized Federated Learning (pFL), has gradually evolved. Extensive attention has been directed toward developing novel frameworks and methods to enhance the performance of pFL. Regrettably, the aspect of security in pFL has been largely overlooked. Our objective is to fill this gap. Similar to FL, pFL is susceptible to backdoor attacks. However, existing backdoor defense strategies are primarily tailored to general FL frameworks, and pFL lacks robustness against backdoor attacks. We propose a novel, backdoor-robust pFL framework named BDPFL to address these challenges. First, BDPFL introduces layer-wise mutual distillation that enables clients to learn their personalized local models while mitigating potential backdoors. Then, BDPFL employs explanation heatmap to learn high-quality intermediate representations and enhance the effect of eliminating deeper and more entrenched backdoors. Moreover, we perform empirical evaluations of BDPFL's performance on three datasets and compare BDPFL with four backdoor defense methods. The experiments demonstrate that BDPFL outperforms baseline methods and is effective under various settings.
- Abstract(参考訳): フェデレートラーニング(Federated Learning)は、ローカルデータセットのプライバシを保持しながら、複数のクライアントにわたるグローバルモデルの協調トレーニングを容易にする分散学習パラダイムである。
データの不均一性とパーソナライズされたニーズに固有の課題に対処するため、パーソナライズされたフェデレーション・ラーニング(pFL)として知られるFL内の新しい方向性が徐々に進化してきた。
pFLの性能向上のための新しいフレームワークや手法の開発に注目が集まっている。
pFLのセキュリティの側面はほとんど見過ごされている。
私たちの目標は、このギャップを埋めることです。
FLと同様に、pFLはバックドア攻撃の影響を受けやすい。
しかし、既存のバックドア防衛戦略は主に一般的なFLフレームワークに適合しており、pFLはバックドア攻撃に対する堅牢性を欠いている。
そこで我々は,これらの課題に対処するために,BDPFLという,バックドア・ロバストなpFLフレームワークを提案する。
まず、BDPFLは、クライアントが潜在的なバックドアを緩和しながら、パーソナライズされたローカルモデルを学習できるようにする階層的相互蒸留を導入する。
次に、BDPFLは、高品質な中間表現を学習し、より深くより密着したバックドアを除去する効果を高めるために、説明ヒートマップを用いる。
さらに,BDPFLの性能を3つのデータセットで実証評価し,BDPFLと4つのバックドアディフェンス法を比較した。
実験により, BDPFLはベースライン法よりも優れ, 様々な条件下で有効であることが示された。
関連論文リスト
- Bad-PFL: Exploring Backdoor Attacks against Personalized Federated Learning [22.074601909696298]
連合学習(PFL)により、各クライアントはプライベートなパーソナライズされたモデルを維持でき、クライアント固有の知識を利用できる。
Bad-PFLは、私たちのトリガーとして自然データからの機能を取り入れ、パーソナライズされたモデルでその長寿を保証します。
3つのベンチマークデータセットに対する大規模な実験は、様々なPFL手法に対する攻撃の優れた性能を示す。
論文 参考訳(メタデータ) (2025-01-22T09:12:16Z) - Just a Simple Transformation is Enough for Data Protection in Vertical Federated Learning [83.90283731845867]
我々は、入力データ妥協を目標とする一般的なリスクである特徴再構成攻撃について検討する。
フェデレーションベースのモデルは、最先端の機能再構築攻撃に耐性があることが示される。
論文 参考訳(メタデータ) (2024-12-16T12:02:12Z) - FuseFL: One-Shot Federated Learning through the Lens of Causality with Progressive Model Fusion [48.90879664138855]
ワンショットフェデレートラーニング(OFL)は、訓練されたモデルを1回だけ集約することで、FLにおける通信コストを大幅に削減する。
しかし、高度なOFL法の性能は通常のFLよりもはるかに遅れている。
本稿では,FuseFL と呼ばれる,高い性能と低通信・ストレージコストを有する新しい学習手法を提案する。
論文 参考訳(メタデータ) (2024-10-27T09:07:10Z) - Lurking in the shadows: Unveiling Stealthy Backdoor Attacks against Personalized Federated Learning [31.386836775526685]
PFLシステムに適用可能なステルスで効果的なバックドア攻撃戦略である textitPFedBA を提案する。
我々の研究は、PFLシステムに対する微妙ながら強力なバックドアの脅威に光を当て、新たなバックドアの課題に対する防衛を強化するようコミュニティに促している。
論文 参考訳(メタデータ) (2024-06-10T12:14:05Z) - Bayesian Federated Learning: A Survey [54.40136267717288]
フェデレートラーニング(FL)は、分散インフラストラクチャ、コミュニケーション、コンピューティング、学習をプライバシ保護の方法で統合する際の利点を示している。
既存のFL手法のロバスト性と能力は、制限された動的データと条件によって挑戦される。
BFLはこれらの問題に対処するための有望なアプローチとして登場した。
論文 参考訳(メタデータ) (2023-04-26T03:41:17Z) - BadVFL: Backdoor Attacks in Vertical Federated Learning [22.71527711053385]
フェデレートラーニング(FL)は、複数のパーティがデータを共有することなく、機械学習モデルを協調的にトレーニングすることを可能にする。
本稿では,VFLのロバスト性,特にバックドアアタックに焦点をあてる。
VFLでは,ラベル推論とバックドアフェーズという2つのフェーズからなる第1種クリーンラベルバックドアアタックが提案されている。
論文 参考訳(メタデータ) (2023-04-18T09:22:32Z) - Revisiting Personalized Federated Learning: Robustness Against Backdoor
Attacks [53.81129518924231]
pFLフレームワークにおけるバックドア攻撃の最初の研究を行う。
モデル共有部分を持つpFL法は,バックドア攻撃に対するロバスト性を大幅に向上させることができることを示す。
本稿では,バックドア攻撃に対する防御性能を実証的に向上する軽量防御手法Simple-Tuningを提案する。
論文 参考訳(メタデータ) (2023-02-03T11:58:14Z) - Achieving Personalized Federated Learning with Sparse Local Models [75.76854544460981]
フェデレートラーニング(FL)は異種分散データに対して脆弱である。
この問題に対処するため、個人ごとに専用のローカルモデルを作成するためにパーソナライズされたFL(PFL)が提案された。
既存のPFLソリューションは、異なるモデルアーキテクチャに対する不満足な一般化を示すか、あるいは膨大な余分な計算とメモリを犠牲にするかのどちらかである。
我々は、パーソナライズされたスパースマスクを用いて、エッジ上のスパースローカルモデルをカスタマイズする新しいPFLスキームFedSpaを提案する。
論文 参考訳(メタデータ) (2022-01-27T08:43:11Z) - Towards Personalized Federated Learning [20.586573091790665]
PFL手法をデータベースおよびモデルベースアプローチに分割するユニークな分類法を提案する。
我々は、その重要なアイデアを強調し、新しいpflアーキテクチャ設計に向けた研究の将来の展望を期待する。
論文 参考訳(メタデータ) (2021-03-01T02:45:19Z) - Meta Federated Learning [57.52103907134841]
フェデレートラーニング(FL)は、時間的敵攻撃の訓練に弱い。
本稿では,メタフェデレーション学習(Meta Federated Learning, Meta-FL)を提案する。
論文 参考訳(メタデータ) (2021-02-10T16:48:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。