論文の概要: Towards Distributed Backdoor Attacks with Network Detection in Decentralized Federated Learning
- arxiv url: http://arxiv.org/abs/2501.15005v1
- Date: Sat, 25 Jan 2025 00:47:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 13:55:38.375512
- Title: Towards Distributed Backdoor Attacks with Network Detection in Decentralized Federated Learning
- Title(参考訳): 分散型フェデレーション学習におけるネットワーク検出による分散型バックドアアタックの実現
- Authors: Bohan Liu, Yang Xiao, Ruimeng Ye, Zinan Ling, Xiaolong Ma, Bo Hui,
- Abstract要約: 攻撃成功率はネットワークアーキテクチャにおける攻撃者の分布に依存することを実験的に実証した。
本論文は,攻撃者が位置情報を判断できないことを考慮し,攻撃者の位置分布に関わらず高い攻撃成功率を達成することを目的とする。
- 参考スコア(独自算出の注目度): 15.53594850037861
- License:
- Abstract: Distributed backdoor attacks (DBA) have shown a higher attack success rate than centralized attacks in centralized federated learning (FL). However, it has not been investigated in the decentralized FL. In this paper, we experimentally demonstrate that, while directly applying DBA to decentralized FL, the attack success rate depends on the distribution of attackers in the network architecture. Considering that the attackers can not decide their location, this paper aims to achieve a high attack success rate regardless of the attackers' location distribution. Specifically, we first design a method to detect the network by predicting the distance between any two attackers on the network. Then, based on the distance, we organize the attackers in different clusters. Lastly, we propose an algorithm to \textit{dynamically} embed local patterns decomposed from a global pattern into the different attackers in each cluster. We conduct a thorough empirical investigation and find that our method can, in benchmark datasets, outperform both centralized attacks and naive DBA in different decentralized frameworks.
- Abstract(参考訳): 分散バックドアアタック(DBA)は、集中型連邦学習(FL)における集中型アタックよりも高い攻撃成功率を示している。
しかし、分散FLでは研究されていない。
本稿では,DBAを分散FLに直接適用する一方で,攻撃成功率はネットワークアーキテクチャにおける攻撃者の分布に依存することを実験的に実証する。
本論文は,攻撃者が位置情報を判断できないことを考慮し,攻撃者の位置分布に関係なく高い攻撃成功率を達成することを目的とする。
具体的には,まず,ネットワーク上の攻撃者間の距離を予測してネットワークを検出する手法を設計する。
そして、その距離に基づいて、攻撃者を異なるクラスタにまとめる。
最後に,グローバルパターンから分解された局所パターンを各クラスタ内の異なる攻撃者に埋め込むアルゴリズムを提案する。
我々は、徹底的な実験的な調査を行い、ベンチマークデータセットでは、異なる分散フレームワークにおける集中的な攻撃と素直なDAAの両方より優れたパフォーマンスが得られることを確かめる。
関連論文リスト
- Infighting in the Dark: Multi-Labels Backdoor Attack in Federated Learning [9.441965281943132]
プライバシ保護のための分散機械学習フレームワークであるFederated Learning(FL)は、バックドア攻撃に対して脆弱であることが示されている。
我々は、攻撃者が効果的で永続的なバックドアをグローバルモデルに注入できる、FLで初の非協調的MBA戦略であるMirageを提案する。
論文 参考訳(メタデータ) (2024-09-29T07:37:22Z) - DALA: A Distribution-Aware LoRA-Based Adversarial Attack against
Language Models [64.79319733514266]
敵攻撃は入力データに微妙な摂動をもたらす可能性がある。
最近の攻撃方法は比較的高い攻撃成功率(ASR)を達成することができる。
そこで本研究では,分散ロラをベースとしたDALA(Adversarial Attack)手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T23:43:47Z) - The Impact of Adversarial Node Placement in Decentralized Federated Learning Networks [6.661122374160369]
連邦学習(FL)の人気が高まるにつれ、新しい分散フレームワークが広まりつつある。
本稿では,ネットワーク内の配置を協調的に調整できる各種対向配置戦略において,分散FLの性能を解析する。
本稿では,敵同士の平均ネットワーク距離を最大化することにより,敵の中央性よりも敵の拡散を優先する新たな攻撃アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-14T06:48:50Z) - Towards Attack-tolerant Federated Learning via Critical Parameter
Analysis [85.41873993551332]
フェデレートされた学習システムは、悪意のあるクライアントが中央サーバーに誤ったアップデートを送信すると、攻撃を害するおそれがある。
本稿では,新たな防衛戦略であるFedCPA(Federated Learning with critical Analysis)を提案する。
攻撃耐性凝集法は, 有害局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒であるのに対し, 類似したトップkおよびボトムk臨界パラメータを持つ。
論文 参考訳(メタデータ) (2023-08-18T05:37:55Z) - Transferable Attack for Semantic Segmentation [59.17710830038692]
敵が攻撃し、ソースモデルから生成された敵の例がターゲットモデルを攻撃するのに失敗するのを観察します。
本研究では, セマンティックセグメンテーションのためのアンサンブルアタックを提案する。
論文 参考訳(メタデータ) (2023-07-31T11:05:55Z) - Analyzing the vulnerabilities in SplitFed Learning: Assessing the
robustness against Data Poisoning Attacks [0.45687771576879593]
この研究は、SplitFed Learning(SFL)におけるデータ中毒攻撃の影響を研究、分析、提示するための最も初期の試みである。
本研究では,SFLに対する標的外攻撃,標的外攻撃,遠隔攻撃の3種類の新規攻撃戦略を提案する。
心電図信号分類と自動手書き文字認識の2つの異なるケーススタディに対して,提案手法を検証した。
論文 参考訳(メタデータ) (2023-07-04T00:37:12Z) - DABS: Data-Agnostic Backdoor attack at the Server in Federated Learning [14.312593000209693]
フェデレートラーニング(FL)は、中央サーバの協調の下で、分散デバイスからローカルモデルを集約することで、グローバルモデルをトレーニングしようとする試みである。
多数の異種デバイスが存在するため、FLは様々な攻撃、特にステルスなバックドア攻撃に対して脆弱である。
我々は,サーバがグローバルモデルを直接変更して,FLシステムにバックドアを施すような,FLの新たなアタックモデル,すなわち,サーバにおけるData-Agnostic Backdoor attack(DABS)を提案する。
論文 参考訳(メタデータ) (2023-05-02T09:04:34Z) - Object-fabrication Targeted Attack for Object Detection [54.10697546734503]
物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
論文 参考訳(メタデータ) (2022-12-13T08:42:39Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Generalized Insider Attack Detection Implementation using NetFlow Data [0.6236743421605786]
ネットワークデータを用いて攻撃を識別する手法について検討する。
我々の研究は、One-Class SVMやbi-clusteringのような教師なしの機械学習技術に基づいています。
われわれのアプローチは、現実的な環境でインサイダー攻撃検出のための有望なツールであることを示す。
論文 参考訳(メタデータ) (2020-10-27T14:00:31Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。