論文の概要: Semi-Targeted Model Poisoning Attack on Federated Learning via Backward
Error Analysis
- arxiv url: http://arxiv.org/abs/2203.11633v1
- Date: Tue, 22 Mar 2022 11:40:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-23 22:09:58.353799
- Title: Semi-Targeted Model Poisoning Attack on Federated Learning via Backward
Error Analysis
- Title(参考訳): 逆誤差解析によるフェデレーション学習に対する半ターゲットモデル中毒攻撃
- Authors: Yuwei Sun, Hideya Ochiai, Jun Sakuma
- Abstract要約: フェデレートラーニング(FL)に対するモデル中毒は、エッジモデルを妥協することでシステム全体に侵入する。
本稿では,特徴空間に最適化された標的クラスを見出すことにより,アタック・ディスタンス・アウェア・アタック(ADA)の攻撃性を高めることを提案する。
ADAは攻撃頻度0.01の最も困難な場合において、攻撃性能を1.8倍に向上させることに成功した。
- 参考スコア(独自算出の注目度): 15.172954465350667
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Model poisoning attacks on federated learning (FL) intrude in the entire
system via compromising an edge model, resulting in malfunctioning of machine
learning models. Such compromised models are tampered with to perform
adversary-desired behaviors. In particular, we considered a semi-targeted
situation where the source class is predetermined however the target class is
not. The goal is to cause the global classifier to misclassify data of the
source class. Though approaches such as label flipping have been adopted to
inject poisoned parameters into FL, it has been shown that their performances
are usually class-sensitive varying with different target classes applied.
Typically, an attack can become less effective when shifting to a different
target class. To overcome this challenge, we propose the Attacking
Distance-aware Attack (ADA) to enhance a poisoning attack by finding the
optimized target class in the feature space. Moreover, we studied a more
challenging situation where an adversary had limited prior knowledge about a
client's data. To tackle this problem, ADA deduces pair-wise distances between
different classes in the latent feature space from shared model parameters
based on the backward error analysis. We performed extensive empirical
evaluations on ADA by varying the factor of attacking frequency in three
different image classification tasks. As a result, ADA succeeded in increasing
the attack performance by 1.8 times in the most challenging case with an
attacking frequency of 0.01.
- Abstract(参考訳): フェデレート学習(FL)に対するモデル中毒は、エッジモデルの妥協を通じてシステム全体に侵入し、機械学習モデルの誤動作を引き起こす。
このような侵害されたモデルは、敵意に満ちた行動を実行するために改ざんされる。
特に,ソースクラスが規定されているが,ターゲットクラスが規定されていない準ターゲットの状況について検討した。
目標は、グローバル分類器がソースクラスのデータを誤分類することである。
FLに有毒なパラメータを注入するためにラベルフリップなどの手法が採用されているが、それらの性能は、通常、異なるターゲットクラスでクラス感受性が異なることが示されている。
通常、異なるターゲットクラスに移行する場合、攻撃はより効果的になる。
この課題を克服するため,我々は,機能空間に最適化されたターゲットクラスを見つけ,中毒攻撃を強化するための攻撃距離認識攻撃(ada)を提案する。
さらに,敵がクライアントのデータに関する事前知識を限定した,より困難な状況についても検討した。
この問題に対処するためにadaは、後方誤差解析に基づいて、潜在特徴空間内の異なるクラス間のペアワイズ距離を共有モデルパラメータから推定する。
3種類の画像分類タスクにおいて,攻撃頻度の要因を変動させることにより,ADAに対して広範な実験評価を行った。
その結果、adaは攻撃頻度0.01の最も挑戦的なケースで攻撃性能を1.8倍に伸ばすことに成功した。
関連論文リスト
- FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - DALA: A Distribution-Aware LoRA-Based Adversarial Attack against
Language Models [64.79319733514266]
敵攻撃は入力データに微妙な摂動をもたらす可能性がある。
最近の攻撃方法は比較的高い攻撃成功率(ASR)を達成することができる。
そこで本研究では,分散ロラをベースとしたDALA(Adversarial Attack)手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T23:43:47Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Federated Zero-Shot Learning for Visual Recognition [55.65879596326147]
本稿では,Federated Zero-Shot Learning FedZSLフレームワークを提案する。
FedZSLは、エッジデバイス上の分散データから中心的なモデルを学ぶ。
FedZSLの有効性と堅牢性は、3つのゼロショットベンチマークデータセットで実施された広範な実験によって実証された。
論文 参考訳(メタデータ) (2022-09-05T14:49:34Z) - Defending against the Label-flipping Attack in Federated Learning [5.769445676575767]
フェデレーテッド・ラーニング(FL)は、参加する仲間にデザインによる自律性とプライバシを提供する。
ラベルフリッピング(LF)攻撃(英: label-flipping, LF)は、攻撃者がラベルをめくってトレーニングデータに毒を盛る攻撃である。
本稿では、まず、ピアのローカル更新からこれらの勾配を動的に抽出する新しいディフェンスを提案する。
論文 参考訳(メタデータ) (2022-07-05T12:02:54Z) - FL-Defender: Combating Targeted Attacks in Federated Learning [7.152674461313707]
フェデレートラーニング(FL)は、グローバル機械学習モデルを、参加する労働者のセット間で分散されたローカルデータから学習することを可能にする。
FLは、学習モデルの完全性に悪影響を及ぼす標的の毒殺攻撃に対して脆弱である。
FL標的攻撃に対抗する手段として,textitFL-Defenderを提案する。
論文 参考訳(メタデータ) (2022-07-02T16:04:46Z) - From Zero-Shot Machine Learning to Zero-Day Attack Detection [3.6704226968275258]
ネットワーク侵入検知システム(Network Intrusion Detection Systems)のような特定のアプリケーションでは、モデルが本番環境で観測する可能性が高いすべての攻撃クラスのデータサンプルを取得することは困難である。
本稿では,ゼロデイアタックシナリオの検出において,MLモデルの性能を評価するため,ゼロショット学習手法を提案する。
論文 参考訳(メタデータ) (2021-09-30T06:23:00Z) - Adversarial Transfer Attacks With Unknown Data and Class Overlap [19.901933940805684]
現在の移動攻撃の研究は、攻撃者にとって非現実的な優位性を持っている。
攻撃者および被害者が不完全な設定で利用可能なデータに着目した敵攻撃の転送に関する最初の研究について述べる。
この脅威モデルは、医学、マルウェアなどの応用に関係している。
論文 参考訳(メタデータ) (2021-09-23T03:41:34Z) - Untargeted, Targeted and Universal Adversarial Attacks and Defenses on
Time Series [0.0]
我々は,UCR時系列データセットに対して,対象外,対象外,普遍的敵攻撃を行った。
これらの攻撃に対して,ディープラーニングに基づく時系列分類モデルが脆弱であることを示す。
また、トレーニングデータのごく一部しか必要としないため、普遍的敵攻撃は優れた一般化特性を有することを示す。
論文 参考訳(メタデータ) (2021-01-13T13:00:51Z) - Robustness May Be at Odds with Fairness: An Empirical Study on
Class-wise Accuracy [85.20742045853738]
CNNは敵の攻撃に弱いことが広く知られている。
本稿では,対人訓練モデルのクラスワイド精度とロバスト性に関する実証的研究を提案する。
トレーニングデータセットが各クラスに同じ数のサンプルを持つ場合でも,精度と堅牢性にはクラス間差があることが判明した。
論文 参考訳(メタデータ) (2020-10-26T06:32:32Z) - CD-UAP: Class Discriminative Universal Adversarial Perturbation [83.60161052867534]
単一の普遍的対向摂動(UAP)は、予測されたクラスラベルのほとんどを変更するために、すべての自然画像に追加することができる。
本稿では,対象ネットワークを騙して選択したクラスのみを誤分類する単一摂動を生成する,新たなユニバーサルアタック手法を提案する。
論文 参考訳(メタデータ) (2020-10-07T09:26:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。