論文の概要: BadFU: Backdoor Federated Learning through Adversarial Machine Unlearning
- arxiv url: http://arxiv.org/abs/2508.15541v1
- Date: Thu, 21 Aug 2025 13:17:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.340184
- Title: BadFU: Backdoor Federated Learning through Adversarial Machine Unlearning
- Title(参考訳): BadFU: 敵マシンの学習を通してのバックドアフェデレーション学習
- Authors: Bingguang Lu, Hongsheng Hu, Yuantian Miao, Shaleeza Sohail, Chaoxiang He, Shuo Wang, Xiao Chen,
- Abstract要約: フェデレートラーニング(FL)は、分散トレーニングパラダイムとして広く採用されている。
本稿では,フェデレーション・アンラーニングの文脈における最初のバックドア攻撃について述べる。
- 参考スコア(独自算出の注目度): 7.329446721934861
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) has been widely adopted as a decentralized training paradigm that enables multiple clients to collaboratively learn a shared model without exposing their local data. As concerns over data privacy and regulatory compliance grow, machine unlearning, which aims to remove the influence of specific data from trained models, has become increasingly important in the federated setting to meet legal, ethical, or user-driven demands. However, integrating unlearning into FL introduces new challenges and raises largely unexplored security risks. In particular, adversaries may exploit the unlearning process to compromise the integrity of the global model. In this paper, we present the first backdoor attack in the context of federated unlearning, demonstrating that an adversary can inject backdoors into the global model through seemingly legitimate unlearning requests. Specifically, we propose BadFU, an attack strategy where a malicious client uses both backdoor and camouflage samples to train the global model normally during the federated training process. Once the client requests unlearning of the camouflage samples, the global model transitions into a backdoored state. Extensive experiments under various FL frameworks and unlearning strategies validate the effectiveness of BadFU, revealing a critical vulnerability in current federated unlearning practices and underscoring the urgent need for more secure and robust federated unlearning mechanisms.
- Abstract(参考訳): フェデレートラーニング(FL)は、複数のクライアントがローカルデータを公開せずに共有モデルを共同で学習できる分散トレーニングパラダイムとして広く採用されている。
データプライバシと規制コンプライアンスに関する懸念が高まるにつれ、トレーニングされたモデルから特定のデータの影響を取り除くことを目的とした機械学習は、法的、倫理的、あるいはユーザ主導の要求を満たすために、連邦環境でますます重要になっている。
しかし、未学習をFLに統合することは、新しい課題を導入し、ほとんど探索されていないセキュリティリスクを増大させる。
特に、敵は未学習のプロセスを利用して、グローバルモデルの完全性を損なう可能性がある。
本稿では,非学習の文脈における最初のバックドア攻撃を提示し,敵が正当な未学習要求によってグローバルモデルにバックドアを注入できることを実証する。
具体的には、悪意のあるクライアントがバックドアとカモフラージュの両方のサンプルを使用して、フェデレートされたトレーニングプロセス中にグローバルモデルをトレーニングする攻撃戦略であるBadFUを提案する。
クライアントがカモフラージュサンプルのアンラーニングを要求すると、グローバルモデルはバックドア状態に移行する。
さまざまなFLフレームワークとアンラーニング戦略の下での大規模な実験は、BadFUの有効性を検証するとともに、現在のフェデレーションアンラーニングプラクティスにおける重大な脆弱性を明らかにし、より安全で堅牢なフェデレーションアンラーニングメカニズムに対する緊急の必要性を強調している。
関連論文リスト
- Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - Backdoor Attacks and Defenses in Federated Learning: Survey, Challenges
and Future Research Directions [3.6086478979425998]
Federated Learning(FL)は、個人のプライバシを損なうことなく分散データを使用することが可能な機械学習(ML)アプローチである。
FLにおけるクライアント間のデータの均一な分散は、オーケストレーションサーバがローカルモデル更新の完全性を検証するのを難しくする。
バックドア攻撃では、悪意のあるクライアントからの悪意のあるアップデートを通じて、悪意のある機能をターゲットモデルに挿入する。
論文 参考訳(メタデータ) (2023-03-03T20:54:28Z) - Backdoor Attacks in Peer-to-Peer Federated Learning [11.235386862864397]
Peer-to-Peer Federated Learning (P2PFL)は、プライバシと信頼性の両面でアドバンテージを提供する。
本稿では,P2PFLに対する新たなバックドア攻撃を提案する。
論文 参考訳(メタデータ) (2023-01-23T21:49:28Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - CRFL: Certifiably Robust Federated Learning against Backdoor Attacks [59.61565692464579]
本稿では,第1の汎用フレームワークであるCertifiably Robust Federated Learning (CRFL) を用いて,バックドアに対する堅牢なFLモデルをトレーニングする。
提案手法は, モデルパラメータのクリッピングと平滑化を利用して大域的モデル平滑化を制御する。
論文 参考訳(メタデータ) (2021-06-15T16:50:54Z) - Turning Federated Learning Systems Into Covert Channels [3.7168491743915646]
フェデレーション・ラーニング(FL)は、エッジクライアント間でモデルトレーニングを分散することで、従来の集中型機械学習を越えている。
本稿では,ステルス通信インフラを実装するために,FLシステムを隠蔽チャネルにすることを目的とした,新たな攻撃モデルを提案する。
論文 参考訳(メタデータ) (2021-04-21T14:32:03Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。