論文の概要: Fabricated Flips: Poisoning Federated Learning without Data
- arxiv url: http://arxiv.org/abs/2202.05877v2
- Date: Wed, 2 Aug 2023 16:27:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-03 18:33:37.481501
- Title: Fabricated Flips: Poisoning Federated Learning without Data
- Title(参考訳): fabricated flips: データ無しでフェデレーション学習を毒殺
- Authors: Jiyue Huang, Zilong Zhao, Lydia Y. Chen, Stefanie Roos
- Abstract要約: フェデレートラーニング(FL)に対する攻撃は、生成されたモデルの品質を大幅に低下させる。
本稿では、悪意のあるデータを合成し、敵対的モデルを構築するデータフリーな未標的攻撃(DFA)を提案する。
DFAは、最先端の未標的攻撃と同じような、あるいはそれ以上の攻撃成功率を達成する。
- 参考スコア(独自算出の注目度): 9.060263645085564
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Attacks on Federated Learning (FL) can severely reduce the quality of the
generated models and limit the usefulness of this emerging learning paradigm
that enables on-premise decentralized learning. However, existing untargeted
attacks are not practical for many scenarios as they assume that i) the
attacker knows every update of benign clients, or ii) the attacker has a large
dataset to locally train updates imitating benign parties. In this paper, we
propose a data-free untargeted attack (DFA) that synthesizes malicious data to
craft adversarial models without eavesdropping on the transmission of benign
clients at all or requiring a large quantity of task-specific training data. We
design two variants of DFA, namely DFA-R and DFA-G, which differ in how they
trade off stealthiness and effectiveness. Specifically, DFA-R iteratively
optimizes a malicious data layer to minimize the prediction confidence of all
outputs of the global model, whereas DFA-G interactively trains a malicious
data generator network by steering the output of the global model toward a
particular class. Experimental results on Fashion-MNIST, Cifar-10, and SVHN
show that DFA, despite requiring fewer assumptions than existing attacks,
achieves similar or even higher attack success rate than state-of-the-art
untargeted attacks against various state-of-the-art defense mechanisms.
Concretely, they can evade all considered defense mechanisms in at least 50% of
the cases for CIFAR-10 and often reduce the accuracy by more than a factor of
2. Consequently, we design REFD, a defense specifically crafted to protect
against data-free attacks. REFD leverages a reference dataset to detect updates
that are biased or have a low confidence. It greatly improves upon existing
defenses by filtering out the malicious updates and achieves high global model
accuracy
- Abstract(参考訳): フェデレーション学習(fl)に対する攻撃は、生成されたモデルの品質を著しく低下させ、オンプレミスの分散学習を可能にするこの新興学習パラダイムの有用性を制限できる。
しかし、既存の非標的攻撃は多くのシナリオにおいて実用的ではない。
一 攻撃者は、良心のクライアントの更新の度に知るか、又は
二 攻撃者は、良性当事者を模倣した更新をローカルに訓練するための大規模なデータセットを有する。
本稿では,悪質なデータを合成して,悪意あるクライアントの送信を全く盗むことなく,あるいは大量のタスク固有のトレーニングデータを必要とすることなく,敵モデルを構築するDFAを提案する。
DFA(DFA-R)とDFA-G(DFA-G)の2つのバリエーションを設計する。
具体的には、dfa-rは悪質なデータ層を反復的に最適化し、グローバルモデルのすべての出力の予測信頼性を最小化する一方、dfa-gは、グローバルモデルの出力を特定のクラスに向けて操ることで悪意のあるデータ生成ネットワークをインタラクティブに訓練する。
Fashion-MNIST、Cifar-10、SVHNの実験結果から、DFAは既存の攻撃よりも仮定が少ないにもかかわらず、様々な最先端の防御機構に対する標的外攻撃よりも、類似またはそれ以上の攻撃成功率を達成することが示された。
具体的には、cifar-10のケースの少なくとも50%で、すべての防御機構を回避でき、精度を2倍に減らすこともしばしばある。
その結果、データフリー攻撃から保護するために特別に作られた防御であるREFDを設計した。
REFDは参照データセットを活用して、バイアスや信頼性の低い更新を検出する。
悪意のある更新をフィルタリングすることで既存の防御を大幅に改善し、高いグローバルモデル精度を実現する。
関連論文リスト
- Mitigating Malicious Attacks in Federated Learning via Confidence-aware Defense [3.685395311534351]
Federated Learning(FL)は、分散機械学習ダイアグラムで、複数のクライアントがプライベートなローカルデータを共有せずに、グローバルモデルを協調的にトレーニングすることができる。
FLシステムは、データ中毒やモデル中毒を通じて悪意のあるクライアントで起こっている攻撃に対して脆弱である。
既存の防御方法は通常、特定の種類の中毒を緩和することに焦点を当てており、しばしば目に見えないタイプの攻撃に対して効果がない。
論文 参考訳(メタデータ) (2024-08-05T20:27:45Z) - Defending Against Sophisticated Poisoning Attacks with RL-based Aggregation in Federated Learning [12.352511156767338]
フェデレート学習は、毒殺攻撃のモデル化に非常に影響を受けやすい。
本稿では,RLに基づくアダプティブアグリゲーション手法であるAdaAggRLを提案する。
4つの実世界のデータセットの実験により、提案された防衛モデルは高度な攻撃に対して広く採用されている防衛モデルよりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2024-06-20T11:33:14Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Defending against the Label-flipping Attack in Federated Learning [5.769445676575767]
フェデレーテッド・ラーニング(FL)は、参加する仲間にデザインによる自律性とプライバシを提供する。
ラベルフリッピング(LF)攻撃(英: label-flipping, LF)は、攻撃者がラベルをめくってトレーニングデータに毒を盛る攻撃である。
本稿では、まず、ピアのローカル更新からこれらの勾配を動的に抽出する新しいディフェンスを提案する。
論文 参考訳(メタデータ) (2022-07-05T12:02:54Z) - FL-Defender: Combating Targeted Attacks in Federated Learning [7.152674461313707]
フェデレートラーニング(FL)は、グローバル機械学習モデルを、参加する労働者のセット間で分散されたローカルデータから学習することを可能にする。
FLは、学習モデルの完全性に悪影響を及ぼす標的の毒殺攻撃に対して脆弱である。
FL標的攻撃に対抗する手段として,textitFL-Defenderを提案する。
論文 参考訳(メタデータ) (2022-07-02T16:04:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。