論文の概要: Robust Knowledge Distillation in Federated Learning: Counteracting Backdoor Attacks
- arxiv url: http://arxiv.org/abs/2502.00587v2
- Date: Tue, 25 Feb 2025 11:42:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 15:18:49.495773
- Title: Robust Knowledge Distillation in Federated Learning: Counteracting Backdoor Attacks
- Title(参考訳): フェデレートラーニングにおけるロバストな知識蒸留 : バックドア攻撃に対抗する
- Authors: Ebtisaam Alharbi, Leandro Soriano Marcolino, Qiang Ni, Antonios Gouglidis,
- Abstract要約: フェデレートラーニング(FL)は、データのプライバシを保持しながら、複数のデバイス間で協調的なモデルトレーニングを可能にする。
悪意のある参加者が世界モデルに侵入できるバックドア攻撃の影響を受けやすい。
本稿では,制約的仮定に頼らずにモデル整合性を高める新しい防御機構であるロバスト知識蒸留(RKD)を提案する。
- 参考スコア(独自算出の注目度): 12.227509826319267
- License:
- Abstract: Federated Learning (FL) enables collaborative model training across multiple devices while preserving data privacy. However, it remains susceptible to backdoor attacks, where malicious participants can compromise the global model. Existing defence methods are limited by strict assumptions on data heterogeneity (Non-Independent and Identically Distributed data) and the proportion of malicious clients, reducing their practicality and effectiveness. To overcome these limitations, we propose Robust Knowledge Distillation (RKD), a novel defence mechanism that enhances model integrity without relying on restrictive assumptions. RKD integrates clustering and model selection techniques to identify and filter out malicious updates, forming a reliable ensemble of models. It then employs knowledge distillation to transfer the collective insights from this ensemble to a global model. Extensive evaluations demonstrate that RKD effectively mitigates backdoor threats while maintaining high model performance, outperforming current state-of-the-art defence methods across various scenarios.
- Abstract(参考訳): フェデレートラーニング(FL)は、データのプライバシを保持しながら、複数のデバイス間で協調的なモデルトレーニングを可能にする。
しかし、悪意のある参加者が世界モデルに侵入できるバックドア攻撃の影響を受けやすい。
既存の防御方法は、データ不均一性(非独立性および特定分散データ)と悪意のあるクライアントの割合に関する厳密な仮定によって制限され、その実用性と有効性が低下する。
これらの制約を克服するために,制約的な仮定に頼ることなくモデル整合性を高める新しい防御機構であるロバスト知識蒸留(RKD)を提案する。
RKDはクラスタリングとモデル選択技術を統合して、悪意のある更新を特定し、フィルタリングし、信頼性の高いモデルのアンサンブルを形成する。
その後、知識蒸留を用いて、このアンサンブルからグローバルモデルへの集合的な洞察を伝達する。
広範囲な評価により、RKDは、様々なシナリオにおいて最先端の防御手法よりも優れ、高いモデル性能を維持しながら、バックドアの脅威を効果的に軽減することが示された。
関連論文リスト
- DROP: Poison Dilution via Knowledge Distillation for Federated Learning [23.793474308133003]
フェデレートラーニングは、悪意のあるクライアントが悪意のあるアップデートを注入して、グローバルモデルの振る舞いに影響を与える、敵の操作に対して脆弱である。
本稿では,クラスタリングとアクティビティ追跡技術を組み合わせた新しい防御機構DROPと,クライアントからの良質な振る舞いの抽出について紹介する。
提案手法は,幅広い学習環境における既存の防御法と比較して,優れたロバスト性を示す。
論文 参考訳(メタデータ) (2025-02-10T20:15:43Z) - Celtibero: Robust Layered Aggregation for Federated Learning [0.0]
Celtiberoは, 対向操作に対する強靭性を高めるため, 層状アグリゲーションを統合した新しい防御機構である。
セルティベロは、標的外および標的標的の毒殺攻撃において、最小攻撃成功率(ASR)を維持しつつ、常に高い主タスク精度(MTA)を達成することを実証した。
論文 参考訳(メタデータ) (2024-08-26T12:54:00Z) - Mitigating Malicious Attacks in Federated Learning via Confidence-aware Defense [3.685395311534351]
Federated Learning(FL)は、分散機械学習ダイアグラムで、複数のクライアントがプライベートなローカルデータを共有せずに、グローバルモデルを協調的にトレーニングすることができる。
FLシステムは、データ中毒やモデル中毒を通じて悪意のあるクライアントで起こっている攻撃に対して脆弱である。
既存の防御方法は通常、特定の種類の中毒を緩和することに焦点を当てており、しばしば目に見えないタイプの攻撃に対して効果がない。
論文 参考訳(メタデータ) (2024-08-05T20:27:45Z) - Center-Based Relaxed Learning Against Membership Inference Attacks [3.301728339780329]
我々は,Central-based relaxed learning (CRL)と呼ばれるアーキテクチャに依存しない新しい学習パラダイムを提案する。
CRLは任意の分類モデルに適応し、モデル一般化可能性の損失を最小限に抑え、プライバシ保護を提供する。
モデルキャパシティやデータコストを必要とせずに、このアプローチが同等のパフォーマンスを示すことを実証的に示しています。
論文 参考訳(メタデータ) (2024-04-26T19:41:08Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Selective Knowledge Sharing for Privacy-Preserving Federated
Distillation without A Good Teacher [52.2926020848095]
フェデレーション学習は、ホワイトボックス攻撃に脆弱で、異種クライアントへの適応に苦慮している。
本稿では,選択的FD(Selective-FD)と呼ばれるFDのための選択的知識共有機構を提案する。
論文 参考訳(メタデータ) (2023-04-04T12:04:19Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。