論文の概要: Buffer is All You Need: Defending Federated Learning against Backdoor Attacks under Non-iids via Buffering
- arxiv url: http://arxiv.org/abs/2503.23511v1
- Date: Sun, 30 Mar 2025 16:46:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 19:35:57.160105
- Title: Buffer is All You Need: Defending Federated Learning against Backdoor Attacks under Non-iids via Buffering
- Title(参考訳): Bufferは必要なもの - Bufferingを通じて非ID下でのバックドアアタックに対するフェデレーション学習を守る
- Authors: Xingyu Lyu, Ning Wang, Yang Xiao, Shixiong Li, Tao Li, Danjue Chen, Yimin Chen,
- Abstract要約: 非イドでもバックドア攻撃に対処するためのFLBuffを提案する。
FLBuffは、非イドは表現空間における全方向展開としてモデル化できるという私たちの洞察にインスパイアされている。
包括的評価は、FLBuffが最先端の防御を一貫して上回っていることを示している。
- 参考スコア(独自算出の注目度): 12.325216357472137
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is a popular paradigm enabling clients to jointly train a global model without sharing raw data. However, FL is known to be vulnerable towards backdoor attacks due to its distributed nature. As participants, attackers can upload model updates that effectively compromise FL. What's worse, existing defenses are mostly designed under independent-and-identically-distributed (iid) settings, hence neglecting the fundamental non-iid characteristic of FL. Here we propose FLBuff for tackling backdoor attacks even under non-iids. The main challenge for such defenses is that non-iids bring benign and malicious updates closer, hence harder to separate. FLBuff is inspired by our insight that non-iids can be modeled as omni-directional expansion in representation space while backdoor attacks as uni-directional. This leads to the key design of FLBuff, i.e., a supervised-contrastive-learning model extracting penultimate-layer representations to create a large in-between buffer layer. Comprehensive evaluations demonstrate that FLBuff consistently outperforms state-of-the-art defenses.
- Abstract(参考訳): Federated Learning(FL)は、クライアントが生データを共有せずにグローバルモデルを共同でトレーニングできる一般的なパラダイムである。
しかしFLは、その分散した性質のため、バックドア攻撃に対して脆弱であることが知られている。
参加者として、攻撃者はFLを効果的に侵害するモデルアップデートをアップロードすることができる。
さらに悪いことに、既存の防御は独立に分散した(iid)設定で設計されているため、FLの基本的な非ID特性は無視されている。
ここでは,非IDでもバックドア攻撃に対処するためのFLBuffを提案する。
このような防御の最大の課題は、非IDが良質で悪意のあるアップデートを近づき、分離が難しくなることだ。
FLBuffは、非IDは表現空間における全方向拡張としてモデル化でき、バックドア攻撃は一方向としてモデル化できるという私たちの洞察にインスパイアされている。
これはFLBuffの鍵となる設計、すなわち、教師付きコントラスト学習モデルに導かれる。
包括的評価は、FLBuffが最先端の防御を一貫して上回っていることを示している。
関連論文リスト
- Not All Edges are Equally Robust: Evaluating the Robustness of Ranking-Based Federated Learning [49.68790647579509]
Federated Ranking Learning (FRL) は最先端のFLフレームワークであり、通信効率と中毒攻撃に対するレジリエンスで際立っている。
Vulnerable Edge Manipulation (VEM) 攻撃という, FRLに対する新たな局所モデル中毒攻撃を導入する。
我々の攻撃は、全体的な53.23%の攻撃効果を達成し、既存の方法よりも3.7倍のインパクトを与える。
論文 参考訳(メタデータ) (2025-03-12T00:38:14Z) - Bad-PFL: Exploring Backdoor Attacks against Personalized Federated Learning [22.074601909696298]
連合学習(PFL)により、各クライアントはプライベートなパーソナライズされたモデルを維持でき、クライアント固有の知識を利用できる。
Bad-PFLは、私たちのトリガーとして自然データからの機能を取り入れ、パーソナライズされたモデルでその長寿を保証します。
3つのベンチマークデータセットに対する大規模な実験は、様々なPFL手法に対する攻撃の優れた性能を示す。
論文 参考訳(メタデータ) (2025-01-22T09:12:16Z) - BadSFL: Backdoor Attack against Scaffold Federated Learning [16.104941796138128]
フェデレートラーニング(FL)は、分散クライアント上のディープラーニングモデルのトレーニングにより、データのプライバシを保護します。
BadSFLは、非IID環境での足場集約アルゴリズムを用いて、FLフレームワーク用に設計された新しいバックドアアタック手法である。
BadSFLは、グローバルモデルで60ラウンド以上有効であり、既存のベースライン攻撃の最大3倍の長さである。
論文 参考訳(メタデータ) (2024-11-25T07:46:57Z) - Backdoor Attacks and Defenses in Federated Learning: Survey, Challenges
and Future Research Directions [3.6086478979425998]
Federated Learning(FL)は、個人のプライバシを損なうことなく分散データを使用することが可能な機械学習(ML)アプローチである。
FLにおけるクライアント間のデータの均一な分散は、オーケストレーションサーバがローカルモデル更新の完全性を検証するのを難しくする。
バックドア攻撃では、悪意のあるクライアントからの悪意のあるアップデートを通じて、悪意のある機能をターゲットモデルに挿入する。
論文 参考訳(メタデータ) (2023-03-03T20:54:28Z) - Revisiting Personalized Federated Learning: Robustness Against Backdoor
Attacks [53.81129518924231]
pFLフレームワークにおけるバックドア攻撃の最初の研究を行う。
モデル共有部分を持つpFL法は,バックドア攻撃に対するロバスト性を大幅に向上させることができることを示す。
本稿では,バックドア攻撃に対する防御性能を実証的に向上する軽量防御手法Simple-Tuningを提案する。
論文 参考訳(メタデータ) (2023-02-03T11:58:14Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Decepticons: Corrupted Transformers Breach Privacy in Federated Learning
for Language Models [58.631918656336005]
悪意のあるパラメータベクトルを配置することで、プライベートなユーザテキストを明らかにする新たな攻撃を提案する。
FLに対する以前の攻撃とは異なり、攻撃はTransformerアーキテクチャとトークンの埋め込みの両方の特徴を利用する。
論文 参考訳(メタデータ) (2022-01-29T22:38:21Z) - Meta Federated Learning [57.52103907134841]
フェデレートラーニング(FL)は、時間的敵攻撃の訓練に弱い。
本稿では,メタフェデレーション学習(Meta Federated Learning, Meta-FL)を提案する。
論文 参考訳(メタデータ) (2021-02-10T16:48:32Z) - Provable Defense against Privacy Leakage in Federated Learning from
Representation Perspective [47.23145404191034]
Federated Learning(FL)は、プライベートデータを明示的に共有しないことでプライバシーリスクを低減できる人気の分散学習フレームワークです。
近年の研究では、モデル更新の共有がflを推論攻撃に対して脆弱にすることを示した。
我々は,勾配からのデータ表現漏洩がflにおけるプライバシー漏洩の本質的原因であることを示す。
論文 参考訳(メタデータ) (2020-12-08T20:42:12Z) - BlockFLA: Accountable Federated Learning via Hybrid Blockchain
Architecture [11.908715869667445]
Federated Learning (FL) は、分散された分散化された機械学習プロトコルである。
FL中、攻撃者が訓練されたモデルにバックドアを注入できることが示されている。
我々は、スマートコントラクトを使用して攻撃者を自動的に検出し、処罰する、ハイブリッドブロックチェーンベースのFLフレームワークを開発した。
論文 参考訳(メタデータ) (2020-10-14T22:43:39Z) - Defending against Backdoors in Federated Learning with Robust Learning
Rate [25.74681620689152]
フェデレートラーニング(FL)は、エージェントの集合が、潜在的に敏感なデータを共有せずに、協調的にモデルをトレーニングすることを可能にする。
バックドア攻撃において、敵はトレーニング中にモデルにバックドア機能を埋め込もうとする。
FLプロトコルの変更を最小限に抑える軽量ディフェンスを提案する。
論文 参考訳(メタデータ) (2020-07-07T23:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。