論文の概要: LoMar: A Local Defense Against Poisoning Attack on Federated Learning
- arxiv url: http://arxiv.org/abs/2201.02873v1
- Date: Sat, 8 Jan 2022 18:28:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-11 15:41:31.837278
- Title: LoMar: A Local Defense Against Poisoning Attack on Federated Learning
- Title(参考訳): lomar: フェデレート学習に対する毒殺防止策
- Authors: Xingyu Li, Zhe Qu, Shangqing Zhao, Bo Tang, Zhuo Lu, and Yao Liu
- Abstract要約: フェデレートラーニング(FL)は、高効率な分散機械学習フレームワークを提供する。
近年の研究では、このアプローチはリモートクライアント側からの攻撃に影響を受けやすいことが示されている。
局所悪性因子(LoMar)と呼ばれる2相防御アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 22.798328772844805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) provides a high efficient decentralized machine
learning framework, where the training data remains distributed at remote
clients in a network. Though FL enables a privacy-preserving mobile edge
computing framework using IoT devices, recent studies have shown that this
approach is susceptible to poisoning attacks from the side of remote clients.
To address the poisoning attacks on FL, we provide a \textit{two-phase} defense
algorithm called {Lo}cal {Ma}licious Facto{r} (LoMar). In phase I, LoMar scores
model updates from each remote client by measuring the relative distribution
over their neighbors using a kernel density estimation method. In phase II, an
optimal threshold is approximated to distinguish malicious and clean updates
from a statistical perspective. Comprehensive experiments on four real-world
datasets have been conducted, and the experimental results show that our
defense strategy can effectively protect the FL system. {Specifically, the
defense performance on Amazon dataset under a label-flipping attack indicates
that, compared with FG+Krum, LoMar increases the target label testing accuracy
from $96.0\%$ to $98.8\%$, and the overall averaged testing accuracy from
$90.1\%$ to $97.0\%$.
- Abstract(参考訳): 連合学習(federated learning, fl)は、ネットワーク内のリモートクライアントにトレーニングデータを分散し続ける、高効率な分散機械学習フレームワークを提供する。
FLはIoTデバイスを使用したプライバシ保護のモバイルエッジコンピューティングフレームワークを実現するが、最近の研究によると、このアプローチはリモートクライアント側からの攻撃を害する可能性がある。
FLに対する毒攻撃に対処するため,Lo}cal {Ma}licious Facto{r} (LoMar) と呼ばれる \textit{two-phase} 防衛アルゴリズムを提案する。
フェーズIでは,カーネル密度推定法を用いて,各リモートクライアントの相対分布を測定してモデル更新を評価する。
フェーズIIでは、悪意のある更新とクリーンな更新を統計的観点から区別するために最適なしきい値が近似される。
実世界の4つのデータセットに関する総合的な実験を行い、実験結果から、我々の防衛戦略がFLシステムを効果的に保護できることが示されている。
特に、ラベルフリッピング攻撃によるAmazonデータセットの防御性能は、FG+Krumと比較して、LoMarがターゲットラベルテストの精度を9,6.0\%$から9,8.8\%$に引き上げ、全体の平均テストの精度が9.0.1\%$から9,7.0\%$に向上したことを示している。
関連論文リスト
- Formal Logic-guided Robust Federated Learning against Poisoning Attacks [6.997975378492098]
Federated Learning (FL)は、集中型機械学習(ML)に関連するプライバシー問題に対して、有望な解決策を提供する。
FLは、敵クライアントがトレーニングデータやモデル更新を操作して全体的なモデルパフォーマンスを低下させる、毒殺攻撃など、さまざまなセキュリティ上の脅威に対して脆弱である。
本稿では,時系列タスクにおけるフェデレート学習における中毒攻撃の軽減を目的とした防御機構を提案する。
論文 参考訳(メタデータ) (2024-11-05T16:23:19Z) - Precision Guided Approach to Mitigate Data Poisoning Attacks in Federated Learning [4.907460152017894]
フェデレートラーニング(Federated Learning, FL)は、参加者が共有機械学習モデルを集合的にトレーニングすることを可能にする、協調学習パラダイムである。
データ中毒攻撃に対する現在のFL防衛戦略は、正確性と堅牢性の間のトレードオフを含む。
本稿では、FLにおけるデータ中毒攻撃を効果的に対処するために、ゾーンベースの退避更新(ZBDU)機構を利用するFedZZを提案する。
論文 参考訳(メタデータ) (2024-04-05T14:37:49Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Honest Score Client Selection Scheme: Preventing Federated Learning Label Flipping Attacks in Non-IID Scenarios [27.36889020561564]
フェデレートラーニング(FL)は、複数のアクターが生データを共有せずにジョイントモデルを構築することができる有望な技術である。
この分散した性質により、FLはモデル中毒攻撃やデータ中毒攻撃など、様々な中毒攻撃に対して脆弱である。
本稿では,最も代表的なデータ中毒攻撃である「ラベルフリップ攻撃」に注目し,既存のFL法を攻撃した場合の有効性をモニタリングする。
論文 参考訳(メタデータ) (2023-11-10T02:07:41Z) - FLTracer: Accurate Poisoning Attack Provenance in Federated Learning [38.47921452675418]
Federated Learning(FL)は、複数のクライアントが共同で共有グローバルモデルをトレーニングできる、有望な分散学習アプローチである。
近年の研究では、FLは様々な毒殺攻撃に弱いことが示されており、グローバルモデルの性能を低下させるか、バックドアを導入することができる。
FLTracerは、様々な攻撃を正確に検出し、攻撃時間、目的、タイプ、および更新の有毒な位置を追跡できる最初のFL攻撃フレームワークである。
論文 参考訳(メタデータ) (2023-10-20T11:24:38Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - FL-Defender: Combating Targeted Attacks in Federated Learning [7.152674461313707]
フェデレートラーニング(FL)は、グローバル機械学習モデルを、参加する労働者のセット間で分散されたローカルデータから学習することを可能にする。
FLは、学習モデルの完全性に悪影響を及ぼす標的の毒殺攻撃に対して脆弱である。
FL標的攻撃に対抗する手段として,textitFL-Defenderを提案する。
論文 参考訳(メタデータ) (2022-07-02T16:04:46Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。