論文の概要: Sybil-based Virtual Data Poisoning Attacks in Federated Learning
- arxiv url: http://arxiv.org/abs/2505.09983v1
- Date: Thu, 15 May 2025 05:46:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 22:29:06.195669
- Title: Sybil-based Virtual Data Poisoning Attacks in Federated Learning
- Title(参考訳): フェデレーションラーニングにおけるSybilベースの仮想データ中毒攻撃
- Authors: Changxun Zhu, Qilong Wu, Lingjuan Lyu, Shibei Xue,
- Abstract要約: フェデレート学習は悪意のある敵による攻撃に対して脆弱である。
本稿では、悪意のあるクライアントがシビルノードを生成して、毒性モデルの影響を増幅する、シビルベースの仮想データ中毒攻撃を提案する。
- 参考スコア(独自算出の注目度): 33.21543663872588
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning is vulnerable to poisoning attacks by malicious adversaries. Existing methods often involve high costs to achieve effective attacks. To address this challenge, we propose a sybil-based virtual data poisoning attack, where a malicious client generates sybil nodes to amplify the poisoning model's impact. To reduce neural network computational complexity, we develop a virtual data generation method based on gradient matching. We also design three schemes for target model acquisition, applicable to online local, online global, and offline scenarios. In simulation, our method outperforms other attack algorithms since our method can obtain a global target model under non-independent uniformly distributed data.
- Abstract(参考訳): フェデレート学習は悪意のある敵による攻撃に弱い。
既存の手法では、しばしば効果的な攻撃を達成するために高いコストがかかる。
この課題に対処するために、悪意のあるクライアントがシビルノードを生成して、シビルモデルの影響を増幅する、シビルベースの仮想データ中毒攻撃を提案する。
ニューラルネットワークの計算複雑性を低減するため,勾配マッチングに基づく仮想データ生成手法を開発した。
また、ターゲットモデル取得のための3つのスキームを設計し、オンラインローカル、オンライングローバル、オフラインのシナリオに適用する。
シミュレーションにおいて,本手法は非独立分散データの下でグローバルターゲットモデルを得ることができるため,他の攻撃アルゴリズムよりも優れる。
関連論文リスト
- Intelligent Attacks and Defense Methods in Federated Learning-enabled Energy-Efficient Wireless Networks [16.816730878868373]
フェデレートラーニング(FL)は、無線ネットワークにおける学習に基づく機能を実現するための有望な手法である。
FLは、ローカルモデルに対する攻撃が他のモデルに広がる可能性のある悪意のある攻撃にさらされるリスクを高める可能性がある。
悪意ある攻撃の効果を評価し,FL対応無線ネットワークの高度な防御技術を開発することが重要である。
論文 参考訳(メタデータ) (2025-04-25T17:40:35Z) - Adversarial Training for Defense Against Label Poisoning Attacks [53.893792844055106]
ラベル中毒攻撃は機械学習モデルに重大なリスクをもたらす。
本稿では,これらの脅威に対処するために,サポートベクトルマシン(SVM)に基づく新たな対角的防御戦略を提案する。
提案手法は, 様々なモデルアーキテクチャに対応し, カーネルSVMを用いた予測勾配降下アルゴリズムを用いて, 対向学習を行う。
論文 参考訳(メタデータ) (2025-02-24T13:03:19Z) - Mitigating Malicious Attacks in Federated Learning via Confidence-aware Defense [3.685395311534351]
Federated Learning(FL)は、分散機械学習ダイアグラムで、複数のクライアントがプライベートなローカルデータを共有せずに、グローバルモデルを協調的にトレーニングすることができる。
FLシステムは、データ中毒やモデル中毒を通じて悪意のあるクライアントで起こっている攻撃に対して脆弱である。
既存の防御方法は通常、特定の種類の中毒を緩和することに焦点を当てており、しばしば目に見えないタイプの攻撃に対して効果がない。
論文 参考訳(メタデータ) (2024-08-05T20:27:45Z) - Interactive Trimming against Evasive Online Data Manipulation Attacks: A Game-Theoretic Approach [10.822843258077997]
悪意のあるデータ中毒攻撃は、機械学習プロセスを破壊し、深刻な結果をもたらす可能性がある。
これらの攻撃を軽減するため、トリミングのような距離ベースの防御法が提案されている。
トリミング戦略を用いてオンラインデータ操作攻撃を防御するインタラクティブなゲーム理論モデルを提案する。
論文 参考訳(メタデータ) (2024-03-15T13:59:05Z) - Advancing DDoS Attack Detection: A Synergistic Approach Using Deep
Residual Neural Networks and Synthetic Oversampling [2.988269372716689]
本稿では,Deep Residual Neural Networks(ResNets)の機能を活用したDDoS攻撃検出の強化手法を提案する。
我々は、良性および悪意のあるデータポイントの表現のバランスをとり、モデルが攻撃を示す複雑なパターンをよりよく識別できるようにする。
実世界のデータセットを用いた実験結果から,従来の手法よりもはるかに優れた99.98%の精度が得られた。
論文 参考訳(メタデータ) (2024-01-06T03:03:52Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。