論文の概要: BayBFed: Bayesian Backdoor Defense for Federated Learning
- arxiv url: http://arxiv.org/abs/2301.09508v1
- Date: Mon, 23 Jan 2023 16:01:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-24 13:07:03.694710
- Title: BayBFed: Bayesian Backdoor Defense for Federated Learning
- Title(参考訳): BayBFed: フェデレートラーニングのためのベイジアンバックドアディフェンス
- Authors: Kavita Kumari, Phillip Rieger, Hossein Fereidooni, Murtuza Jadliwala,
Ahmad-Reza Sadeghi
- Abstract要約: フェデレートラーニング(FL)は、参加者がプライベートデータを他の人と共有することなく、機械学習モデルを共同でトレーニングすることを可能にする。
BayBFed は FL の悪意のある更新を検出するために,クライアント更新による確率分布の利用を提案する。
- 参考スコア(独自算出の注目度): 17.433543798151746
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Federated learning (FL) allows participants to jointly train a machine
learning model without sharing their private data with others. However, FL is
vulnerable to poisoning attacks such as backdoor attacks. Consequently, a
variety of defenses have recently been proposed, which have primarily utilized
intermediary states of the global model (i.e., logits) or distance of the local
models (i.e., L2-norm) from the global model to detect malicious backdoors.
However, as these approaches directly operate on client updates, their
effectiveness depends on factors such as clients' data distribution or the
adversary's attack strategies. In this paper, we introduce a novel and more
generic backdoor defense framework, called BayBFed, which proposes to utilize
probability distributions over client updates to detect malicious updates in
FL: it computes a probabilistic measure over the clients' updates to keep track
of any adjustments made in the updates, and uses a novel detection algorithm
that can leverage this probabilistic measure to efficiently detect and filter
out malicious updates. Thus, it overcomes the shortcomings of previous
approaches that arise due to the direct usage of client updates; as our
probabilistic measure will include all aspects of the local client training
strategies. BayBFed utilizes two Bayesian Non-Parametric extensions: (i) a
Hierarchical Beta-Bernoulli process to draw a probabilistic measure given the
clients' updates, and (ii) an adaptation of the Chinese Restaurant Process
(CRP), referred by us as CRP-Jensen, which leverages this probabilistic measure
to detect and filter out malicious updates. We extensively evaluate our defense
approach on five benchmark datasets: CIFAR10, Reddit, IoT intrusion detection,
MNIST, and FMNIST, and show that it can effectively detect and eliminate
malicious updates in FL without deteriorating the benign performance of the
global model.
- Abstract(参考訳): フェデレートラーニング(FL)は、参加者がプライベートデータを他の人と共有することなく、機械学習モデルを共同でトレーニングすることを可能にする。
しかし、FLはバックドア攻撃のような中毒攻撃に弱い。
その結果、主にグローバルモデル(ロジット)の中間状態や、グローバルモデルからローカルモデル(L2-ノルム)の距離を利用して悪意のあるバックドアを検出する様々な防衛法が提案されている。
しかし、これらのアプローチはクライアントのアップデートに直接依存するので、その効果はクライアントのデータ配信や敵の攻撃戦略といった要因に依存する。
本稿では,クライアント更新における悪意のある更新を検出するために,クライアント更新の確率分布を利用するBayBFedという,より汎用的なバックドア防御フレームワークを提案する。
したがって、クライアント更新を直接使用することによって生じる、以前のアプローチの欠点を克服します。
BayBFedは2つのベイズ非パラメトリック拡張を利用する。
(i)クライアントの更新を考慮し、確率的尺度を描く階層的なベータ・バーヌーリプロセス
(II) CRP-ジェンセンと呼ばれる中国のレストランプロセス(CRP)の適応で、この確率的手法を利用して悪意のある更新を検出し、フィルタリングする。
CIFAR10、Reddit、IoT侵入検出、MNIST、FMNISTの5つのベンチマークデータセットに対する防御アプローチを広く評価し、グローバルモデルの良質な性能を損なうことなく、FLの悪意ある更新を効果的に検出・排除できることを示す。
関連論文リスト
- FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Close the Gate: Detecting Backdoored Models in Federated Learning based
on Client-Side Deep Layer Output Analysis [55.41644538483948]
Federated Learning(FL)は、ディープニューラルネットワーク(DNN)を異なるクライアントから複数のデータソースで協調的にトレーニングするスキームである。
データを共有する代わりに、各クライアントはモデルをローカルにトレーニングする。
近年、訓練されたモデルに個々のクライアントがバックドアを注入できるいわゆる標的毒殺攻撃が提案されている。
我々は、クライアントのデータを活用して、アグリゲーション前の個々のモデルを分析することで、バックドア攻撃を軽減できるモデルフィルタリングディフェンスであるtextitCrowdGuardを提案する。
論文 参考訳(メタデータ) (2022-10-14T11:27:49Z) - Robust Quantity-Aware Aggregation for Federated Learning [72.59915691824624]
悪意のあるクライアントは、モデル更新を害し、モデルアグリゲーションにおけるモデル更新の影響を増幅するために大量の要求を行う。
FLの既存の防御メソッドは、悪意のあるモデル更新を処理する一方で、すべての量の良性を扱うか、単にすべてのクライアントの量を無視/停止するだけである。
本稿では,フェデレーション学習のためのロバストな量認識アグリゲーションアルゴリズムであるFedRAを提案し,局所的なデータ量を認識してアグリゲーションを行う。
論文 参考訳(メタデータ) (2022-05-22T15:13:23Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Backdoor Defense in Federated Learning Using Differential Testing and
Outlier Detection [24.562359531692504]
バックドア攻撃からFLシステムを保護するための自動防御フレームワークであるDifFenseを提案する。
提案手法は,グローバルモデルの平均バックドア精度を4%以下に低減し,偽陰性率ゼロを達成する。
論文 参考訳(メタデータ) (2022-02-21T17:13:03Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - DeepSight: Mitigating Backdoor Attacks in Federated Learning Through
Deep Model Inspection [26.593268413299228]
フェデレートラーニング(FL)では、複数のクライアントが、データを公開せずに、プライベートデータ上でニューラルネットワーク(NN)モデルを協調的にトレーニングすることができる。
DeepSightは、バックドア攻撃を緩和するための新しいモデルフィルタリングアプローチである。
モデルの性能に悪影響を及ぼすことなく、最先端のバックドア攻撃を軽減できることを示す。
論文 参考訳(メタデータ) (2022-01-03T17:10:07Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - BaFFLe: Backdoor detection via Feedback-based Federated Learning [3.6895394817068357]
フィードバックに基づくフェデレーション学習(BAFFLE)によるバックドア検出を提案する。
BAFFLEは,最先端のバックドア攻撃を100%,偽陽性率5%以下で確実に検出できることを示す。
論文 参考訳(メタデータ) (2020-11-04T07:44:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。