論文の概要: FedNIA: Noise-Induced Activation Analysis for Mitigating Data Poisoning in FL
- arxiv url: http://arxiv.org/abs/2502.16396v1
- Date: Sun, 23 Feb 2025 01:16:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:58:44.813815
- Title: FedNIA: Noise-Induced Activation Analysis for Mitigating Data Poisoning in FL
- Title(参考訳): FedNIA:FLにおけるデータ汚染緩和のためのノイズ誘起活性化分析
- Authors: Ehsan Hallaji, Roozbeh Razavi-Far, Mehrdad Saif,
- Abstract要約: Federated Noise-induced Activation Analysis (FedNIA)は、敵の顧客を特定し排除するための新しい防御フレームワークである。
FedNIAはランダムノイズ入力を注入し、クライアントモデルの階層的なアクティベーションパターンを分析する。
サンプル中毒、ラベルのフリップ、バックドアなど、さまざまなタイプの攻撃に対して防御することができる。
- 参考スコア(独自算出の注目度): 6.144680854063938
- License:
- Abstract: Federated learning systems are increasingly threatened by data poisoning attacks, where malicious clients compromise global models by contributing tampered updates. Existing defenses often rely on impractical assumptions, such as access to a central test dataset, or fail to generalize across diverse attack types, particularly those involving multiple malicious clients working collaboratively. To address this, we propose Federated Noise-Induced Activation Analysis (FedNIA), a novel defense framework to identify and exclude adversarial clients without relying on any central test dataset. FedNIA injects random noise inputs to analyze the layerwise activation patterns in client models leveraging an autoencoder that detects abnormal behaviors indicative of data poisoning. FedNIA can defend against diverse attack types, including sample poisoning, label flipping, and backdoors, even in scenarios with multiple attacking nodes. Experimental results on non-iid federated datasets demonstrate its effectiveness and robustness, underscoring its potential as a foundational approach for enhancing the security of federated learning systems.
- Abstract(参考訳): フェデレートされた学習システムは、悪意のあるクライアントが、改ざんされたアップデートに貢献することによって、グローバルなモデルを侵害するデータ中毒攻撃によってますます脅威にさらされている。
既存の防御は、中央テストデータセットへのアクセスや、さまざまな攻撃タイプ、特に複数の悪意のあるクライアントが協力して作業するなど、非現実的な仮定に依存していることが多い。
これを解決するために,FedNIA(Federated Noise-induced Activation Analysis)を提案する。
FedNIAはランダムノイズ入力を注入し、データ中毒を示す異常な振る舞いを検出するオートエンコーダを利用するクライアントモデルにおける階層的アクティベーションパターンを分析する。
FedNIAは、複数の攻撃ノードを持つシナリオであっても、サンプル中毒、ラベルのフリップ、バックドアなど、さまざまな攻撃タイプに対して防御することができる。
非イドフェデレーションデータセットの実験結果は、その有効性と堅牢性を示し、フェデレーション学習システムのセキュリティを高めるための基礎的なアプローチとしての可能性を強調している。
関連論文リスト
- FedCLEAN: byzantine defense by CLustering Errors of Activation maps in Non-IID federated learning environments [2.5490583414858836]
フェデレートラーニング(FL)は、クライアントがデータプライバシを強化しながら、ローカルデータセットを使用してグローバルモデルを協調的にトレーニングすることを可能にする。
既存の防御機構は、クライアントのデータが独立で同一の分散(IID)であると仮定し、非IIDの実際のアプリケーションでは非効率である。
本稿では,非IID FL環境下で攻撃者のモデル更新をフィルタリングできる最初のディフェンスであるFedCLEANを提案する。
論文 参考訳(メタデータ) (2025-01-21T13:37:28Z) - Formal Logic-guided Robust Federated Learning against Poisoning Attacks [6.997975378492098]
Federated Learning (FL)は、集中型機械学習(ML)に関連するプライバシー問題に対して、有望な解決策を提供する。
FLは、敵クライアントがトレーニングデータやモデル更新を操作して全体的なモデルパフォーマンスを低下させる、毒殺攻撃など、さまざまなセキュリティ上の脅威に対して脆弱である。
本稿では,時系列タスクにおけるフェデレート学習における中毒攻撃の軽減を目的とした防御機構を提案する。
論文 参考訳(メタデータ) (2024-11-05T16:23:19Z) - Mitigating Malicious Attacks in Federated Learning via Confidence-aware Defense [3.685395311534351]
Federated Learning(FL)は、分散機械学習ダイアグラムで、複数のクライアントがプライベートなローカルデータを共有せずに、グローバルモデルを協調的にトレーニングすることができる。
FLシステムは、データ中毒やモデル中毒を通じて悪意のあるクライアントで起こっている攻撃に対して脆弱である。
既存の防御方法は通常、特定の種類の中毒を緩和することに焦点を当てており、しばしば目に見えないタイプの攻撃に対して効果がない。
論文 参考訳(メタデータ) (2024-08-05T20:27:45Z) - BoBa: Boosting Backdoor Detection through Data Distribution Inference in Federated Learning [26.714674251814586]
フェデレーテッド・ラーニングは、その分散した性質のため、毒殺の被害を受けやすい。
本稿では,この問題を解決するために,分布認識型異常検出機構であるBoBaを提案する。
論文 参考訳(メタデータ) (2024-07-12T19:38:42Z) - Model Stealing Attack against Graph Classification with Authenticity, Uncertainty and Diversity [80.16488817177182]
GNNは、クエリ許可を通じてターゲットモデルを複製するための悪行であるモデル盗難攻撃に対して脆弱である。
異なるシナリオに対応するために,3つのモデルステルス攻撃を導入する。
論文 参考訳(メタデータ) (2023-12-18T05:42:31Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Towards Attack-tolerant Federated Learning via Critical Parameter
Analysis [85.41873993551332]
フェデレートされた学習システムは、悪意のあるクライアントが中央サーバーに誤ったアップデートを送信すると、攻撃を害するおそれがある。
本稿では,新たな防衛戦略であるFedCPA(Federated Learning with critical Analysis)を提案する。
攻撃耐性凝集法は, 有害局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒であるのに対し, 類似したトップkおよびボトムk臨界パラメータを持つ。
論文 参考訳(メタデータ) (2023-08-18T05:37:55Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - FLCert: Provably Secure Federated Learning against Poisoning Attacks [67.8846134295194]
FLCertは、有毒な攻撃に対して確実に安全であるアンサンブル・フェデレート学習フレームワークである。
実験の結果,テスト入力に対するFLCertで予測されたラベルは,有意な数の悪意のあるクライアントによって影響を受けないことが判明した。
論文 参考訳(メタデータ) (2022-10-02T17:50:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。