論文の概要: An Empirical Analysis of Federated Learning Models Subject to Label-Flipping Adversarial Attack
- arxiv url: http://arxiv.org/abs/2412.18507v1
- Date: Tue, 24 Dec 2024 15:47:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-25 15:54:28.547294
- Title: An Empirical Analysis of Federated Learning Models Subject to Label-Flipping Adversarial Attack
- Title(参考訳): ラベルフリップ攻撃を受けるフェデレーション学習モデルの実証分析
- Authors: Kunal Bhatnagar, Sagana Chattanathan, Angela Dang, Bhargav Eranki, Ronnit Rana, Charan Sridhar, Siddharth Vedam, Angie Yao, Mark Stamp,
- Abstract要約: 本稿では,選択したフェデレーション学習モデルに対する敵対的攻撃を実証的に分析する。
各モデルに対して,ラベルフリッピング攻撃をシミュレートし,フェデレートされた10のクライアントとフェデレートされた100のクライアントで広範囲に実験を行った。
ラベルフリップ攻撃における2つのベクトルに対して,モデル固有の堅牢性が異なることが判明した。
- 参考スコア(独自算出の注目度): 0.8706730566331036
- License:
- Abstract: In this paper, we empirically analyze adversarial attacks on selected federated learning models. The specific learning models considered are Multinominal Logistic Regression (MLR), Support Vector Classifier (SVC), Multilayer Perceptron (MLP), Convolution Neural Network (CNN), %Recurrent Neural Network (RNN), Random Forest, XGBoost, and Long Short-Term Memory (LSTM). For each model, we simulate label-flipping attacks, experimenting extensively with 10 federated clients and 100 federated clients. We vary the percentage of adversarial clients from 10% to 100% and, simultaneously, the percentage of labels flipped by each adversarial client is also varied from 10% to 100%. Among other results, we find that models differ in their inherent robustness to the two vectors in our label-flipping attack, i.e., the percentage of adversarial clients, and the percentage of labels flipped by each adversarial client. We discuss the potential practical implications of our results.
- Abstract(参考訳): 本稿では,選択したフェデレーション学習モデルに対する敵対的攻撃を実証的に分析する。
具体的な学習モデルは、MLR(Multinominal Logistic Regression)、SVC(Support Vector Classifier)、MLP(Multilayer Perceptron)、CNN(Convolution Neural Network)、RNN(Recurrent Neural Network)、ランダムフォレスト(Random Forest)、XGBoost(XGBoost)、Long Short-Term Memory(LSTM)である。
各モデルに対して,ラベルフリッピング攻撃をシミュレートし,フェデレートされた10のクライアントとフェデレートされた100のクライアントで広範囲に実験を行った。
我々は、相手クライアントの割合を10%から100%に、同時に、各相手クライアントによって反転されたラベルの割合も10%から100%に変化します。
その結果, ラベルフリップ攻撃における2つのベクトル, すなわち, 相手クライアントの割合と, 相手クライアントが反転するラベルの割合とが, モデル固有のロバスト性に違いがあることが判明した。
結果の潜在的な実用的意義について論じる。
関連論文リスト
- Learning Unlabeled Clients Divergence for Federated Semi-Supervised Learning via Anchor Model Aggregation [10.282711631100845]
SemiAnAggはアンカーモデルを通じて未ラベルのクライアントコントリビューションを学習する。
SemiAnAggは4つの広く使用されているFedSemiベンチマークにおいて、最先端の新たな結果を達成する。
論文 参考訳(メタデータ) (2024-07-14T20:50:40Z) - Multi-Level Additive Modeling for Structured Non-IID Federated Learning [54.53672323071204]
我々は、異種クライアント間のより良い知識共有のために、マルチレベル付加モデル(MAM)と呼ばれるマルチレベル構造で編成されたモデルを訓練する。
フェデレートMAM(FeMAM)では、各クライアントは各レベル毎に少なくとも1つのモデルに割り当てられ、そのパーソナライズされた予測は、各レベルに割り当てられたモデルの出力を合計する。
実験により、FeMAMは既存のクラスタリングFLおよびパーソナライズされたFLメソッドを様々な非IID設定で超越していることが示された。
論文 参考訳(メタデータ) (2024-05-26T07:54:53Z) - Federated Learning with Only Positive Labels by Exploring Label Correlations [78.59613150221597]
フェデレートラーニングは、プライバシー上の制約の下で複数のユーザのデータを使用することで、モデルを協調的に学習することを目的としている。
本稿では,フェデレート学習環境下でのマルチラベル分類問題について検討する。
ラベル相関(FedALC)を探索してフェデレート平均化(Federated Averaging)と呼ばれる新しい,汎用的な手法を提案する。
論文 参考訳(メタデータ) (2024-04-24T02:22:50Z) - Federated Learning Under Attack: Exposing Vulnerabilities through Data
Poisoning Attacks in Computer Networks [17.857547954232754]
Federated Learning(FL)は、複数の分散デバイスやエッジサーバが生データを交換することなく、共同で共有モデルをトレーニングできる機械学習アプローチである。
クライアントとサーバ間のモデル更新のトレーニングと共有の間、データとモデルは異なるデータポゾン攻撃の影響を受けやすい。
我々は,ラベルフリップ (LF) と特徴中毒 (FP) の2種類のデータ中毒攻撃を検討した。
論文 参考訳(メタデータ) (2024-03-05T14:03:15Z) - Federated Semi-Supervised Learning with Annotation Heterogeneity [57.12560313403097]
Heterogenely Annotated Semi-Supervised LEarning (HASSLE) という新しいフレームワークを提案する。
ラベル付きデータとラベルなしデータで個別にトレーニングされた2つのモデルを持つデュアルモデルフレームワークである。
デュアルモデルは、異なるクライアントにわたる両方のタイプのデータから暗黙的に学習することができるが、各デュアルモデルは、単一のタイプのデータに対してのみローカルにトレーニングされる。
論文 参考訳(メタデータ) (2023-03-04T16:04:49Z) - FLCert: Provably Secure Federated Learning against Poisoning Attacks [67.8846134295194]
FLCertは、有毒な攻撃に対して確実に安全であるアンサンブル・フェデレート学習フレームワークである。
実験の結果,テスト入力に対するFLCertで予測されたラベルは,有意な数の悪意のあるクライアントによって影響を受けないことが判明した。
論文 参考訳(メタデータ) (2022-10-02T17:50:04Z) - Cross-Model Pseudo-Labeling for Semi-Supervised Action Recognition [98.25592165484737]
CMPL(Cross-Model Pseudo-Labeling)と呼ばれる,より効果的な擬似ラベル方式を提案する。
CMPLは、それぞれRGBモダリティとラベル付きデータのみを使用して、Kinetics-400とUCF-101のTop-1の精度を17.6%と25.1%で達成している。
論文 参考訳(メタデータ) (2021-12-17T18:59:41Z) - Resilience from Diversity: Population-based approach to harden models
against adversarial attacks [0.0]
この研究は、敵の攻撃に対して回復力のあるモデルを導入する。
我々のモデルは、生物科学から確立された原則を生かし、人口多様性は環境変化に対して弾力性を生み出す。
Counter-Linked Model (CLM) は、周期的ランダム類似性検査を行う同じアーキテクチャのサブモデルで構成されている。
論文 参考訳(メタデータ) (2021-11-19T15:22:21Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - Provably Secure Federated Learning against Malicious Clients [31.85264586217373]
悪意のあるクライアントは、グローバルモデルを破損させて、テスト例の誤ったラベルを予測することができます。
我々のアンサンブル・フェデレーション・ラーニングとベース・フェデレーション・ラーニング・アルゴリズムは、悪意のあるクライアントに対して確実に安全であることを示す。
本手法は,1000件中20件のクライアントが悪意のある場合,MNISTに対して88%の認証精度を達成できる。
論文 参考訳(メタデータ) (2021-02-03T03:24:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。