論文の概要: Mingling with the Good to Backdoor Federated Learning
- arxiv url: http://arxiv.org/abs/2501.01913v1
- Date: Fri, 03 Jan 2025 17:30:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-06 15:11:51.499656
- Title: Mingling with the Good to Backdoor Federated Learning
- Title(参考訳): バックドア・フェデレーション・ラーニングで学ぶ
- Authors: Nuno Neves,
- Abstract要約: Federated Learning(FL)は、複数のエンティティがデータセットのプライバシを保持しながらモデルを共同でトレーニングすることを可能にする、分散機械学習技術である。
本稿では,様々な防御を回避しつつ,FLにバックドアを設置可能な汎用攻撃法の設計の可能性について検討する。
具体的には、MIGOと呼ばれる攻撃的戦略に注目し、正当性を微妙にブレンドしたモデル更新を作成することを目的としている。
- 参考スコア(独自算出の注目度): 0.8657107511095243
- License:
- Abstract: Federated learning (FL) is a decentralized machine learning technique that allows multiple entities to jointly train a model while preserving dataset privacy. However, its distributed nature has raised various security concerns, which have been addressed by increasingly sophisticated defenses. These protections utilize a range of data sources and metrics to, for example, filter out malicious model updates, ensuring that the impact of attacks is minimized or eliminated. This paper explores the feasibility of designing a generic attack method capable of installing backdoors in FL while evading a diverse array of defenses. Specifically, we focus on an attacker strategy called MIGO, which aims to produce model updates that subtly blend with legitimate ones. The resulting effect is a gradual integration of a backdoor into the global model, often ensuring its persistence long after the attack concludes, while generating enough ambiguity to hinder the effectiveness of defenses. MIGO was employed to implant three types of backdoors across five datasets and different model architectures. The results demonstrate the significant threat posed by these backdoors, as MIGO consistently achieved exceptionally high backdoor accuracy (exceeding 90%) while maintaining the utility of the main task. Moreover, MIGO exhibited strong evasion capabilities against ten defenses, including several state-of-the-art methods. When compared to four other attack strategies, MIGO consistently outperformed them across most configurations. Notably, even in extreme scenarios where the attacker controls just 0.1% of the clients, the results indicate that successful backdoor insertion is possible if the attacker can persist for a sufficient number of rounds.
- Abstract(参考訳): Federated Learning(FL)は、複数のエンティティがデータセットのプライバシを保持しながらモデルを共同でトレーニングすることを可能にする、分散機械学習技術である。
しかし、その分散した性質は、より洗練された防御によって対処された様々なセキュリティ上の懸念を提起している。
これらの保護は、さまざまなデータソースとメトリクスを使用して、悪意のあるモデルの更新をフィルタリングし、攻撃の影響を最小限に抑えたり排除したりする。
本稿では,様々な防御を回避しつつ,FLにバックドアを設置可能な汎用攻撃法の設計の可能性について検討する。
具体的には,MIGOと呼ばれる攻撃的戦略に注目し,正当性を微妙にブレンドしたモデル更新を実現することを目的とする。
結果として生じる効果は、バックドアがグローバルモデルに徐々に統合され、攻撃が終了するまでにその持続性を確保すると同時に、防御効果を阻害する十分な曖昧さを生じさせる。
MIGOは5つのデータセットと異なるモデルアーキテクチャに3種類のバックドアを埋め込むために使用された。
その結果、MIGOはメインタスクの実用性を維持しつつ、非常に高いバックドア精度(90%以上)を達成したため、これらのバックドアがもたらす重大な脅威が示された。
さらにMIGOは、いくつかの最先端の方法を含む10の防衛に対する強力な回避能力を示した。
他の4つの攻撃戦略と比較すると、MIGOは多くの構成で一貫して優れていた。
特に、攻撃者がクライアントの0.1%しかコントロールできない極端なシナリオであっても、攻撃者が十分な数のラウンドを継続できれば、バックドアの挿入が成功する可能性が示唆されている。
関連論文リスト
- Data Free Backdoor Attacks [83.10379074100453]
DFBAは、モデルアーキテクチャを変更することなく、リトレーニングフリーでデータフリーのバックドア攻撃である。
我々の注入されたバックドアは、様々な最先端の防御策によって、検出不可能で、検出不能であることを確認した。
複数のデータセットに対する評価では,1) 無視可能な分類損失,2) 攻撃成功率,3) 既存の6つの防御を回避している。
論文 参考訳(メタデータ) (2024-12-09T05:30:25Z) - Act in Collusion: A Persistent Distributed Multi-Target Backdoor in Federated Learning [5.91728247370845]
フェデレーション学習は、その分散した性質のため、バックドア攻撃に対して脆弱である。
我々は、分散マルチターゲットバックドアであるフェデレーション学習のためのより実用的な脅威モデルを提案する。
攻撃後30ラウンド、各種顧客からの3つの異なるバックドアのアタック成功率は93%以上である。
論文 参考訳(メタデータ) (2024-11-06T13:57:53Z) - Infighting in the Dark: Multi-Labels Backdoor Attack in Federated Learning [9.441965281943132]
プライバシ保護のための分散機械学習フレームワークであるFederated Learning(FL)は、バックドア攻撃に対して脆弱であることが示されている。
我々は、攻撃者が効果的で永続的なバックドアをグローバルモデルに注入できる、FLで初の非協調的MBA戦略であるMirageを提案する。
論文 参考訳(メタデータ) (2024-09-29T07:37:22Z) - Efficient Backdoor Defense in Multimodal Contrastive Learning: A Token-Level Unlearning Method for Mitigating Threats [52.94388672185062]
本稿では,機械学習という概念を用いて,バックドアの脅威に対する効果的な防御機構を提案する。
これは、モデルがバックドアの脆弱性を迅速に学習するのを助けるために、小さな毒のサンプルを戦略的に作成することを必要とする。
バックドア・アンラーニング・プロセスでは,新しいトークン・ベースの非ラーニング・トレーニング・システムを提案する。
論文 参考訳(メタデータ) (2024-09-29T02:55:38Z) - TrojFM: Resource-efficient Backdoor Attacks against Very Large Foundation Models [69.37990698561299]
TrojFMは、非常に大きな基礎モデルに適した、新しいバックドア攻撃である。
提案手法では,モデルパラメータのごく一部のみを微調整することでバックドアを注入する。
広範に使われている大規模GPTモデルに対して,TrojFMが効果的なバックドアアタックを起動できることを実証する。
論文 参考訳(メタデータ) (2024-05-27T03:10:57Z) - Concealing Backdoor Model Updates in Federated Learning by Trigger-Optimized Data Poisoning [20.69655306650485]
Federated Learning(FL)は、参加者がプライベートデータを共有せずに、協力的にモデルをトレーニングできる分散型機械学習手法である。
プライバシーとスケーラビリティの利点にもかかわらず、FLはバックドア攻撃の影響を受けやすい。
本稿では,バックドアトリガの最適化によりバックドア目標を動的に構築する,FLのバックドア攻撃戦略であるDPOTを提案する。
論文 参考訳(メタデータ) (2024-05-10T02:44:25Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - FedGrad: Mitigating Backdoor Attacks in Federated Learning Through Local
Ultimate Gradients Inspection [3.3711670942444014]
フェデレートラーニング(FL)は、複数のクライアントが機密データを妥協することなくモデルをトレーニングすることを可能にする。
FLの分散的な性質は、特に訓練中のバックドア挿入において、敵の攻撃に敏感である。
我々は,最先端のバックドア攻撃に抵抗するFLに対するバックドア耐性防御であるFedGradを提案する。
論文 参考訳(メタデータ) (2023-04-29T19:31:44Z) - On the Vulnerability of Backdoor Defenses for Federated Learning [8.345632941376673]
Federated Learning(FL)は、クライアントのデータを共有することなく、グローバルモデルの共同トレーニングを可能にする、人気のある分散機械学習パラダイムである。
本稿では,現在の防衛機構が,フェデレートラーニングによるバックドアの脅威を真に中和するかどうかを考察する。
本稿では,新たなバックドア攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-01-19T17:02:02Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。