論文の概要: Blind leads Blind: A Zero-Knowledge Attack on Federated Learning
- arxiv url: http://arxiv.org/abs/2202.05877v1
- Date: Mon, 7 Feb 2022 20:38:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-20 16:22:30.800008
- Title: Blind leads Blind: A Zero-Knowledge Attack on Federated Learning
- Title(参考訳): blind lead blind: 連合学習に対するゼロ知識攻撃
- Authors: Jiyue Huang, Zilong Zhao, Lydia Y. Chen, Stefanie Roos
- Abstract要約: フェデレートラーニング(FL)に対する攻撃は、生成されたモデルの品質を大幅に低下させる。
本研究では,ゼロ・ナレッジ・アンターゲット・アタック(ZKA)を設計し,良性クライアントの送信を盗聴することなく敵モデルを構築する。
ZKA-Rは、地球モデルから工学を逆転させることにより、逆不明瞭なデータを生成する。
ZKA-Gは、ランダムに選択されたクラスとは異なる画像を合成することを目的としたジェネレータからの合成データに基づいて局所モデルを訓練する。
- 参考スコア(独自算出の注目度): 9.060263645085564
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Attacks on Federated Learning (FL) can severely reduce the quality of the
generated models and limit the usefulness of this emerging learning paradigm
that enables on-premise decentralized learning. There have been various
untargeted attacks on FL, but they are not widely applicable as they i) assume
that the attacker knows every update of benign clients, which is indeed sent in
encrypted form to the central server, or ii) assume that the attacker has a
large dataset and sufficient resources to locally train updates imitating
benign parties. In this paper, we design a zero-knowledge untargeted attack
(ZKA), which synthesizes malicious data to craft adversarial models without
eavesdropping on the transmission of benign clients at all or requiring a large
quantity of task-specific training data. To inject malicious input into the FL
system by synthetic data, ZKA has two variants. ZKA-R generates adversarial
ambiguous data by reversing engineering from the global models. To enable
stealthiness, ZKA-G trains the local model on synthetic data from the generator
that aims to synthesize images different from a randomly chosen class.
Furthermore, we add a novel distance-based regularization term for both attacks
to further enhance stealthiness. Experimental results on Fashion-MNIST and
CIFAR-10 show that the ZKA achieves similar or even higher attack success rate
than the state-of-the-art untargeted attacks against various defense
mechanisms, namely more than 50% for Cifar-10 for all considered defense
mechanisms. As expected, ZKA-G is better at circumventing defenses, even
showing a defense pass rate of close to 90% when ZKA-R only achieves 70%.
Higher data heterogeneity favours ZKA-R since detection becomes harder.
- Abstract(参考訳): フェデレーション学習(fl)に対する攻撃は、生成されたモデルの品質を著しく低下させ、オンプレミスの分散学習を可能にするこの新興学習パラダイムの有用性を制限できる。
FLに対する様々な未標的攻撃があったが、それらが広く適用されていない。
i) 攻撃者は、実際に暗号化形式で中央サーバに送信される良性クライアントの更新を全て知っていると仮定する、又は
二 攻撃者が、良質な当事者を模倣した更新をローカルに訓練するために、大きなデータセットと十分なリソースを持っていると仮定する。
本稿では,ゼロ知識未目標攻撃(ZKA)を設計し,悪意あるクライアントの送信を全く盗むことなく,あるいは大量のタスク固有の訓練データを必要とすることなく,悪意あるデータを合成して敵モデルを構築する。
FLシステムに悪意のある入力を合成データで注入するために、ZKAには2つのバリエーションがある。
ZKA-Rは、地球モデルから工学を逆転させることにより、逆不明瞭なデータを生成する。
ステルス性を実現するため、zka-gはランダムに選択されたクラスとは異なる画像を合成することを目的としたジェネレータからの合成データのローカルモデルをトレーニングする。
さらに,両攻撃に対する距離に基づく新しい正規化用語を追加し,さらにステルス性を高める。
Fashion-MNIST と CIFAR-10 の実験結果から、ZKA は様々な防御機構に対する最先端の未標的攻撃(Cifar-10 の50%以上)と類似またはそれ以上の攻撃成功率を達成することが示された。
予想通り、ZKA-Gは防御の回避に優れており、ZKA-Rが70%しか達成できないときでも90%近い防衛パス率を示す。
高いデータの均一性は、検出が困難になるため、ZKA-Rを好む。
関連論文リスト
- Mitigating Malicious Attacks in Federated Learning via Confidence-aware Defense [3.685395311534351]
Federated Learning(FL)は、分散機械学習ダイアグラムで、複数のクライアントがプライベートなローカルデータを共有せずに、グローバルモデルを協調的にトレーニングすることができる。
FLシステムは、データ中毒やモデル中毒を通じて悪意のあるクライアントで起こっている攻撃に対して脆弱である。
既存の防御方法は通常、特定の種類の中毒を緩和することに焦点を当てており、しばしば目に見えないタイプの攻撃に対して効果がない。
論文 参考訳(メタデータ) (2024-08-05T20:27:45Z) - Defending Against Sophisticated Poisoning Attacks with RL-based Aggregation in Federated Learning [12.352511156767338]
フェデレート学習は、毒殺攻撃のモデル化に非常に影響を受けやすい。
本稿では,RLに基づくアダプティブアグリゲーション手法であるAdaAggRLを提案する。
4つの実世界のデータセットの実験により、提案された防衛モデルは高度な攻撃に対して広く採用されている防衛モデルよりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2024-06-20T11:33:14Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Defending against the Label-flipping Attack in Federated Learning [5.769445676575767]
フェデレーテッド・ラーニング(FL)は、参加する仲間にデザインによる自律性とプライバシを提供する。
ラベルフリッピング(LF)攻撃(英: label-flipping, LF)は、攻撃者がラベルをめくってトレーニングデータに毒を盛る攻撃である。
本稿では、まず、ピアのローカル更新からこれらの勾配を動的に抽出する新しいディフェンスを提案する。
論文 参考訳(メタデータ) (2022-07-05T12:02:54Z) - FL-Defender: Combating Targeted Attacks in Federated Learning [7.152674461313707]
フェデレートラーニング(FL)は、グローバル機械学習モデルを、参加する労働者のセット間で分散されたローカルデータから学習することを可能にする。
FLは、学習モデルの完全性に悪影響を及ぼす標的の毒殺攻撃に対して脆弱である。
FL標的攻撃に対抗する手段として,textitFL-Defenderを提案する。
論文 参考訳(メタデータ) (2022-07-02T16:04:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。