論文の概要: Visualizing the Shadows: Unveiling Data Poisoning Behaviors in Federated Learning
- arxiv url: http://arxiv.org/abs/2405.16707v1
- Date: Sun, 26 May 2024 21:58:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-28 19:48:31.466570
- Title: Visualizing the Shadows: Unveiling Data Poisoning Behaviors in Federated Learning
- Title(参考訳): 影を可視化する - フェデレートラーニングにおけるデータ汚染行動の解明
- Authors: Xueqing Zhang, Junkai Zhang, Ka-Ho Chow, Juntao Chen, Ying Mao, Mohamed Rahouti, Xiang Li, Yuchen Liu, Wenqi Wei,
- Abstract要約: 本稿では,データ中毒に対するフェデレート学習(FL)システムの感受性について検討する。
我々はラベルフリップによる標的データ中毒攻撃をシミュレートし、モデル性能への影響を分析する。
- 参考スコア(独自算出の注目度): 19.352124342742364
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This demo paper examines the susceptibility of Federated Learning (FL) systems to targeted data poisoning attacks, presenting a novel system for visualizing and mitigating such threats. We simulate targeted data poisoning attacks via label flipping and analyze the impact on model performance, employing a five-component system that includes Simulation and Data Generation, Data Collection and Upload, User-friendly Interface, Analysis and Insight, and Advisory System. Observations from three demo modules: label manipulation, attack timing, and malicious attack availability, and two analysis components: utility and analytical behavior of local model updates highlight the risks to system integrity and offer insight into the resilience of FL systems. The demo is available at https://github.com/CathyXueqingZhang/DataPoisoningVis.
- Abstract(参考訳): 本稿では,フェデレート・ラーニング(FL)システムのデータ中毒攻撃に対する感受性について検討し,このような脅威を可視化・緩和するための新しいシステムを提案する。
ラベルフリップによるターゲットデータ中毒攻撃をシミュレートし、シミュレーションとデータ生成、データ収集とアップロード、ユーザフレンドリーなインタフェース、分析とインサイト、アドバイザリシステムを含む5成分システムを用いてモデルパフォーマンスへの影響を分析する。
3つのデモモジュール、ラベル操作、攻撃タイミング、悪意のある攻撃可用性、および2つの分析コンポーネント:ローカルモデルの更新の実用的および分析的振る舞いは、システムの完全性に対するリスクを強調し、FLシステムのレジリエンスに関する洞察を提供する。
デモはhttps://github.com/CathyXueqingZhang/DataPoisoningVis.comで公開されている。
関連論文リスト
- Enabling Privacy-Preserving Cyber Threat Detection with Federated Learning [4.475514208635884]
本研究は, プライバシー保護型サイバー脅威検出のための学習の可能性について, 有効性, ビザンチンレジリエンス, 効率の観点から, 体系的に検証した。
FLトレーニングされた検出モデルは、中央訓練された検出モデルに匹敵する性能が得られることを示す。
現実的な脅威モデルの下では、FLはデータ中毒とモデル中毒の両方の攻撃に対して抵抗性があることが判明した。
論文 参考訳(メタデータ) (2024-04-08T01:16:56Z) - Data-Agnostic Model Poisoning against Federated Learning: A Graph
Autoencoder Approach [65.2993866461477]
本稿では,フェデレートラーニング(FL)に対するデータに依存しないモデル中毒攻撃を提案する。
この攻撃はFLトレーニングデータの知識を必要とせず、有効性と検出不能の両方を達成する。
実験により、FLの精度は提案した攻撃の下で徐々に低下し、既存の防御機構では検出できないことが示された。
論文 参考訳(メタデータ) (2023-11-30T12:19:10Z) - Exploring Model Dynamics for Accumulative Poisoning Discovery [62.08553134316483]
そこで我々は,モデルレベルの情報を通して,防衛を探索するための新しい情報尺度,すなわち,記憶の離散性(Memorization Discrepancy)を提案する。
暗黙的にデータ操作の変更をモデル出力に転送することで、メモリ識別は許容できない毒のサンプルを発見することができる。
我々は、その性質を徹底的に探求し、累積中毒に対する防御のために、離散型サンプル補正(DSC)を提案する。
論文 参考訳(メタデータ) (2023-06-06T14:45:24Z) - Analysis and Detectability of Offline Data Poisoning Attacks on Linear
Dynamical Systems [0.30458514384586405]
統計検査のレンズを用いて最小二乗推定値に有毒が及ぼす影響について検討した。
古典的な統計的テストから逃れることのできる最小二乗推定器に対するステルスデータ中毒攻撃を提案する。
論文 参考訳(メタデータ) (2022-11-16T10:01:03Z) - A Stream Learning Approach for Real-Time Identification of False Data
Injection Attacks in Cyber-Physical Power Systems [11.867912248195543]
提案フレームワークは,偽データインジェクション攻撃を動的に検出し,分類する。
取得した情報を用いて制御信号を検索する。
このフレームワークは、セントラル・ニューヨーク・パワー・システムから取得した実世界のデータに基づいて評価されている。
論文 参考訳(メタデータ) (2022-10-13T04:53:01Z) - CARLA-GeAR: a Dataset Generator for a Systematic Evaluation of
Adversarial Robustness of Vision Models [61.68061613161187]
本稿では,合成データセットの自動生成ツールであるCARLA-GeARについて述べる。
このツールは、Python APIを使用して、CARLAシミュレータ上に構築されており、自律運転のコンテキストにおいて、いくつかのビジョンタスク用のデータセットを生成することができる。
本稿では,CARLA-GeARで生成されたデータセットが,現実世界の敵防衛のベンチマークとして今後どのように利用されるかを示す。
論文 参考訳(メタデータ) (2022-06-09T09:17:38Z) - Flurry: a Fast Framework for Reproducible Multi-layered Provenance Graph
Representation Learning [0.44040106718326594]
Flurryは、サイバー攻撃をシミュレートするエンドツーエンドのデータパイプラインである。
複数のシステムとアプリケーション層におけるこれらの攻撃からのデータをキャプチャし、これらの攻撃からの監査ログをデータプロファイランスグラフに変換し、このデータをディープニューラルネットワークのトレーニングフレームワークに組み込む。
複数のシステム攻撃からのデータを処理し,グラフ分類による異常検出を行うことで,このパイプラインを実証する。
論文 参考訳(メタデータ) (2022-03-05T13:52:11Z) - Gradient-based Data Subversion Attack Against Binary Classifiers [9.414651358362391]
本研究では,攻撃者がラベルのラベルに毒を盛り,システムの機能を損なうようなラベル汚染攻撃に焦点を当てる。
我々は、予測ラベルに対する微分可能凸損失関数の勾配をウォームスタートとして利用し、汚染するデータインスタンスの集合を見つけるための異なる戦略を定式化する。
本実験は,提案手法がベースラインより優れ,計算効率が高いことを示す。
論文 参考訳(メタデータ) (2021-05-31T09:04:32Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - Dataset Security for Machine Learning: Data Poisoning, Backdoor Attacks,
and Defenses [150.64470864162556]
この作業は体系的に分類され、幅広いデータセット脆弱性とエクスプロイトを議論する。
様々な毒とバックドアの脅威モデルとそれらの関係を記述することに加えて,それらの統一分類法を展開する。
論文 参考訳(メタデータ) (2020-12-18T22:38:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。