論文の概要: ProtegoFed: Backdoor-Free Federated Instruction Tuning with Interspersed Poisoned Data
- arxiv url: http://arxiv.org/abs/2603.00516v1
- Date: Sat, 28 Feb 2026 07:25:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 12:48:08.405398
- Title: ProtegoFed: Backdoor-Free Federated Instruction Tuning with Interspersed Poisoned Data
- Title(参考訳): ProtegoFed: 散在データによるバックドアフリーのフェデレーションインストラクションチューニング
- Authors: Haodong Zhao, Jinming Hu, Zhaomin Wu, Zongru Wu, Wei Du, Junyi Hou, Caibei Zhao, Zhuosheng Zhang, Bingsheng He, Gongshen Liu,
- Abstract要約: Federated Instruction Tuning (FIT)は、複数の組織(組織)にまたがる大規模な言語モデルの、プライベートなインストラクションの共有を必要とせずに、クロスサイロ環境での協調的なインストラクションチューニングを可能にする。
最近の研究では、有毒なサンプルが現実世界のデータセットに広範に埋め込まれており、たとえクライアントが良心的であっても、すべてのクライアントに分散している可能性が示唆されている。
ProtegoFedは、トレーニング中にクライアント間で汚染されたデータを正確に検出・浄化・分散する最初のバックドアフリーFITフレームワークである。
- 参考スコア(独自算出の注目度): 50.142067708131826
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Instruction Tuning (FIT) enables collaborative instruction tuning of large language models across multiple organizations (clients) in a cross-silo setting without requiring the sharing of private instructions. Recent findings on natural backdoors and the existing training data collection method suggest that poisoned samples may be pervasive and inadvertently embedded in real-world datasets, potentially distributed across all clients, even if the clients are benign. This work systematically examine this threat in FIT, demonstrating that existing defenses are ineffective when poisoned data is interspersed among all clients. Addressing this challenge entails two major difficulties: identifying the distinctive characteristics of poisoned samples at each client and enabling collaborative defense when some clients are heavily dominated by poisoned samples. To address these difficulties, we identify gradients in the frequency domain as a robust signal to distinguish poisoned data. We further propose a global secondary clustering mechanism that facilitates collaborative identification of poisoned samples across clients. In summary, this paper introduces ProtegoFed, the first backdoor-free FIT framework that accurately detects, removes, and even purifies interspersed poisoned data across clients during the training. Experimental results on four FL datasets show that ProtegoFed identifies $92.00\% \sim 100.00\%$ of poisoned samples, reduces the attack success rate to almost zero, and maintains utility on the main task. Code is available at https://github.com/dongdongzhaoUP/ProtegoFed.
- Abstract(参考訳): Federated Instruction Tuning (FIT)は、複数の組織(組織)にまたがる大規模な言語モデルの、プライベートなインストラクションの共有を必要とせずに、クロスサイロ環境での協調的なインストラクションチューニングを可能にする。
天然のバックドアと既存のトレーニングデータ収集手法の最近の発見は、有毒なサンプルが現実世界のデータセットに広範に埋め込まれており、たとえクライアントが良識があるとしても、すべてのクライアントに分散している可能性があることを示唆している。
この研究は、FITにおけるこの脅威を体系的に検証し、すべてのクライアント間で有毒データが分散されている場合、既存の防御は効果がないことを示した。
この課題に対処するには、各クライアントで有毒なサンプルの特徴を特定することと、一部のクライアントが有毒なサンプルに強く支配されている場合の協調的な防御を可能にする、という2つの大きな課題がある。
これらの問題に対処するために、周波数領域の勾配を、有毒なデータを識別するための頑健な信号として同定する。
さらに,クライアント間で有毒なサンプルの協調識別を容易にするグローバルセカンダリクラスタリング機構を提案する。
要約すると、本研究では、トレーニング中にクライアント間で散在する有毒データを正確に検出、除去、浄化する最初のバックドアフリーFITフレームワークであるProtegoFedを紹介する。
4つのFLデータセットの実験結果は、ProtegoFedが92.00\% \sim 100.00\%の有毒サンプルを識別し、攻撃成功率をほぼゼロに減らし、メインタスクで実用性を維持することを示している。
コードはhttps://github.com/dongdongzhaoUP/ProtegoFed.comで入手できる。
関連論文リスト
- FedUP: Efficient Pruning-based Federated Unlearning for Model Poisoning Attacks [4.146693948527548]
フェデレート・アンラーニング(FU)は、このような脆弱性に対処するソリューションとして浮上している。
この研究は、悪意のあるクライアントの影響を効率的に緩和するために設計された軽量なFUアルゴリズムであるFedUPを提示する。
すべてのシナリオにおいて、FedUPは悪意のある影響を減らし、悪意のあるデータに対する精度を下げて、スクラッチから再トレーニングされたモデルと一致させる。
論文 参考訳(メタデータ) (2025-08-19T14:14:58Z) - A Client-level Assessment of Collaborative Backdoor Poisoning in Non-IID Federated Learning [14.728868104566363]
フェデレートラーニング(FL)は、複数のクライアントからの分散プライベートデータを使用した協調モデルトレーニングを可能にする。
我々の研究は、クライアント間で非独立かつ同一に分散された(非IID)データから生じる新たな脆弱性を明らかにする。
CollaPois と呼ばれる新規なバックドア中毒発作を発症した。
論文 参考訳(メタデータ) (2025-04-17T12:03:02Z) - FedNIA: Noise-Induced Activation Analysis for Mitigating Data Poisoning in FL [6.144680854063938]
Federated Noise-induced Activation Analysis (FedNIA)は、敵の顧客を特定し排除するための新しい防御フレームワークである。
FedNIAはランダムノイズ入力を注入し、クライアントモデルの階層的なアクティベーションパターンを分析する。
サンプル中毒、ラベルのフリップ、バックドアなど、さまざまなタイプの攻撃に対して防御することができる。
論文 参考訳(メタデータ) (2025-02-23T01:16:01Z) - Protecting Model Adaptation from Trojans in the Unlabeled Data [120.42853706967188]
本稿では,よく設計された毒物標的データによるモデル適応に対するトロイの木馬攻撃の可能性について検討する。
本稿では,既存の適応アルゴリズムとシームレスに統合可能なDiffAdaptというプラグイン・アンド・プレイ手法を提案する。
論文 参考訳(メタデータ) (2024-01-11T16:42:10Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - CrowdGuard: Federated Backdoor Detection in Federated Learning [39.58317527488534]
本稿では,フェデレートラーニングにおけるバックドア攻撃を効果的に軽減する新しい防御機構であるCrowdGuardを提案する。
CrowdGuardでは、サーバロケーションのスタック化されたクラスタリングスキームを使用して、クライアントからのフィードバックに対するレジリエンスを高めている。
評価結果は、CrowdGuardがさまざまなシナリオで100%正の正の正の正の負の負の負の値を達成することを示す。
論文 参考訳(メタデータ) (2022-10-14T11:27:49Z) - FLCert: Provably Secure Federated Learning against Poisoning Attacks [67.8846134295194]
FLCertは、有毒な攻撃に対して確実に安全であるアンサンブル・フェデレート学習フレームワークである。
実験の結果,テスト入力に対するFLCertで予測されたラベルは,有意な数の悪意のあるクライアントによって影響を受けないことが判明した。
論文 参考訳(メタデータ) (2022-10-02T17:50:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。