論文の概要: Securing Federated Learning against Overwhelming Collusive Attackers
- arxiv url: http://arxiv.org/abs/2209.14093v1
- Date: Wed, 28 Sep 2022 13:41:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 17:50:37.676870
- Title: Securing Federated Learning against Overwhelming Collusive Attackers
- Title(参考訳): 衝突攻撃者に対するフェデレーション学習の確保
- Authors: Priyesh Ranjan, Ashish Gupta, Federico Cor\`o, and Sajal K. Das
- Abstract要約: 局所モデル間の相関を利用して,最小スパンニング木とk-Densestグラフに基づく2つのグラフ理論アルゴリズムを提案する。
我々のFLモデルは、攻撃者の影響を最大70%まで無効にすることができる。
我々は、精度、攻撃成功率、早期検出ラウンドを用いて、既存のアルゴリズムよりもアルゴリズムの優位性を確立する。
- 参考スコア(独自算出の注目度): 7.587927338603662
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the era of a data-driven society with the ubiquity of Internet of Things
(IoT) devices storing large amounts of data localized at different places,
distributed learning has gained a lot of traction, however, assuming
independent and identically distributed data (iid) across the devices. While
relaxing this assumption that anyway does not hold in reality due to the
heterogeneous nature of devices, federated learning (FL) has emerged as a
privacy-preserving solution to train a collaborative model over non-iid data
distributed across a massive number of devices. However, the appearance of
malicious devices (attackers), who intend to corrupt the FL model, is
inevitable due to unrestricted participation. In this work, we aim to identify
such attackers and mitigate their impact on the model, essentially under a
setting of bidirectional label flipping attacks with collusion. We propose two
graph theoretic algorithms, based on Minimum Spanning Tree and k-Densest graph,
by leveraging correlations between local models. Our FL model can nullify the
influence of attackers even when they are up to 70% of all the clients whereas
prior works could not afford more than 50% of clients as attackers. The
effectiveness of our algorithms is ascertained through experiments on two
benchmark datasets, namely MNIST and Fashion-MNIST, with overwhelming
attackers. We establish the superiority of our algorithms over the existing
ones using accuracy, attack success rate, and early detection round.
- Abstract(参考訳): さまざまな場所でローカライズされた大量のデータを格納するIoT(Internet of Things)デバイスを備えたデータ駆動型社会の時代に、分散学習は、デバイス間で独立した、同一の分散データ(iid)を仮定して、多くの注目を集めてきた。
デバイスが異質な性質のために現実に保持されないという仮定を緩和する一方で、フェデレーション学習(fl)は、膨大な数のデバイスに分散した非iidデータに対して協調モデルをトレーニングするためのプライバシ保護ソリューションとして浮上している。
しかし、FLモデルを破損させようとする悪意あるデバイス(攻撃者)の出現は、制限のない参加のため避けられない。
本研究では,このような攻撃者を特定し,そのモデルへの影響を軽減することを目的としている。
局所モデル間の相関を利用して,最小スパンニング木とk-Densestグラフに基づく2つのグラフ理論アルゴリズムを提案する。
私たちのflモデルは、すべてのクライアントの70%まででも攻撃者の影響を無効にできますが、以前の作業では攻撃者としてクライアントの50%以上を享受できませんでした。
アルゴリズムの有効性は、2つのベンチマークデータセット、すなわちMNISTとFashion-MNISTの実験によって確認される。
我々は、精度、攻撃成功率、早期検出ラウンドを用いて、既存のアルゴリズムよりも優れたアルゴリズムを確立する。
関連論文リスト
- Fed-Credit: Robust Federated Learning with Credibility Management [18.349127735378048]
Federated Learning(FL)は、分散デバイスやデータソースのモデルトレーニングを可能にする、新興の機械学習アプローチである。
我々は、Fed-Creditと呼ばれる信頼性管理手法に基づく堅牢なFLアプローチを提案する。
その結果、比較的低い計算複雑性を維持しながら、敵攻撃に対する精度とレジリエンスが向上した。
論文 参考訳(メタデータ) (2024-05-20T03:35:13Z) - Federated Learning Under Attack: Exposing Vulnerabilities through Data
Poisoning Attacks in Computer Networks [17.857547954232754]
Federated Learning(FL)は、複数の分散デバイスやエッジサーバが生データを交換することなく、共同で共有モデルをトレーニングできる機械学習アプローチである。
クライアントとサーバ間のモデル更新のトレーニングと共有の間、データとモデルは異なるデータポゾン攻撃の影響を受けやすい。
我々は,ラベルフリップ (LF) と特徴中毒 (FP) の2種類のデータ中毒攻撃を検討した。
論文 参考訳(メタデータ) (2024-03-05T14:03:15Z) - Data-Agnostic Model Poisoning against Federated Learning: A Graph
Autoencoder Approach [65.2993866461477]
本稿では,フェデレートラーニング(FL)に対するデータに依存しないモデル中毒攻撃を提案する。
この攻撃はFLトレーニングデータの知識を必要とせず、有効性と検出不能の両方を達成する。
実験により、FLの精度は提案した攻撃の下で徐々に低下し、既存の防御機構では検出できないことが示された。
論文 参考訳(メタデータ) (2023-11-30T12:19:10Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - FL-Defender: Combating Targeted Attacks in Federated Learning [7.152674461313707]
フェデレートラーニング(FL)は、グローバル機械学習モデルを、参加する労働者のセット間で分散されたローカルデータから学習することを可能にする。
FLは、学習モデルの完全性に悪影響を及ぼす標的の毒殺攻撃に対して脆弱である。
FL標的攻撃に対抗する手段として,textitFL-Defenderを提案する。
論文 参考訳(メタデータ) (2022-07-02T16:04:46Z) - Robust Federated Learning for execution time-based device model
identification under label-flipping attack [0.0]
デバイス偽造と偽造のサイバー攻撃は、その影響と、通常、打ち上げに必要な複雑さが低いために際立っている。
行動フィンガープリントとML/DL(Machine/Deep Learning)技術の組み合わせに基づいて、デバイスモデルとタイプを特定するいくつかのソリューションが登場した。
フェデレートラーニング(FL)のような新しいアプローチは、特にシナリオ設定に悪意のあるクライアントが存在する場合、まだ十分に検討されていない。
論文 参考訳(メタデータ) (2021-11-29T10:27:14Z) - Mitigating the Impact of Adversarial Attacks in Very Deep Networks [10.555822166916705]
Deep Neural Network (DNN)モデルにはセキュリティに関する脆弱性がある。
データ中毒による摂動攻撃は、モデルに偽データを注入する複雑な敵対攻撃である。
そこで本研究では,攻撃に依存しない防御手法を提案する。
論文 参考訳(メタデータ) (2020-12-08T21:25:44Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z) - Byzantine-Robust Learning on Heterogeneous Datasets via Bucketing [55.012801269326594]
ビザンチンの堅牢な分散学習では、中央サーバは、複数のワーカーに分散したデータよりも、機械学習モデルを訓練したい。
これらの労働者のごく一部は、所定のアルゴリズムから逸脱し、任意のメッセージを送ることができる。
本稿では,既存のロバストなアルゴリズムを無視可能な計算コストでヘテロジニアスなデータセットに適応させる,シンプルなバケット方式を提案する。
論文 参考訳(メタデータ) (2020-06-16T17:58:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。