論文の概要: Challenges and approaches for mitigating byzantine attacks in federated
learning
- arxiv url: http://arxiv.org/abs/2112.14468v1
- Date: Wed, 29 Dec 2021 09:24:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-30 20:19:02.379774
- Title: Challenges and approaches for mitigating byzantine attacks in federated
learning
- Title(参考訳): 連合学習におけるビザンチン攻撃緩和の課題とアプローチ
- Authors: Shengshan Hu and Jianrong Lu and Wei Wan and Leo Yu Zhang
- Abstract要約: フェデレーテッド・ラーニング(FL)は、多くの無線エンドユーザーデバイスがデータを使いながらグローバルモデルをトレーニングできる、魅力的な分散学習フレームワークである。
将来性はあるものの、従来の分散ネットワークの難易度の高い脅威であるビザンチン攻撃はFLにも有効であることが判明した。
そこで我々は,これらの防御策を打ち破り,その脅威を実証するための実験を行うために,重み攻撃と呼ばれる新たなビザンチン攻撃法を提案する。
- 参考スコア(独自算出の注目度): 6.836162272841266
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently emerged federated learning (FL) is an attractive distributed
learning framework in which numerous wireless end-user devices can train a
global model with the data remained autochthonous. Compared with the
traditional machine learning framework that collects user data for centralized
storage, which brings huge communication burden and concerns about data
privacy, this approach can not only save the network bandwidth but also protect
the data privacy. Despite the promising prospect, byzantine attack, an
intractable threat in conventional distributed network, is discovered to be
rather efficacious against FL as well. In this paper, we conduct a
comprehensive investigation of the state-of-the-art strategies for defending
against byzantine attacks in FL. We first provide a taxonomy for the existing
defense solutions according to the techniques they used, followed by an
across-the-board comparison and discussion. Then we propose a new byzantine
attack method called weight attack to defeat those defense schemes, and conduct
experiments to demonstrate its threat. The results show that existing defense
solutions, although abundant, are still far from fully protecting FL. Finally,
we indicate possible countermeasures for weight attack, and highlight several
challenges and future research directions for mitigating byzantine attacks in
FL.
- Abstract(参考訳): 近年出現したフェデレートラーニング(FL)は、多くの無線エンドユーザーデバイスが、データを自動同期したグローバルモデルをトレーニングできる、魅力的な分散学習フレームワークである。
集中ストレージのためにユーザデータを収集する従来の機械学習フレームワークと比較すると、通信の負担が大きくなり、データプライバシが懸念されるため、このアプローチはネットワーク帯域幅を節約できるだけでなく、データのプライバシも保護できる。
将来性はあるものの、従来の分散ネットワークの難易度の高い脅威であるビザンチン攻撃はFLにも有効であることが判明した。
本稿では,FLにおけるビザンチン攻撃を防御するための最先端戦略を包括的に調査する。
まず、使用した技術に従って、既存の防衛ソリューションに対して分類を提供し、その後、全体比較と議論を行う。
次に,これらの防衛計画を打ち破るために,重み攻撃と呼ばれる新しいビザンチン攻撃法を提案し,その脅威を実証するための実験を行う。
その結果、既存の防衛ソリューションは豊富ではあるが、flを完全に保護するには程遠いことが判明した。
最後に,重み攻撃対策の可能性を示し,flにおけるビザンチン攻撃の軽減に向けたいくつかの課題と今後の研究方向について述べる。
関連論文リスト
- Robust Federated Learning Mitigates Client-side Training Data
Distribution Inference Attacks [53.210725411547806]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - Securing NextG Systems against Poisoning Attacks on Federated Learning:
A Game-Theoretic Solution [9.800359613640763]
本稿では,フェデレートラーニング(FL)システムにおける毒性攻撃と防御相互作用について検討する。
FLは、クライアントがデータサンプルを交換する必要なしに、グローバルモデルを集合的にトレーニングする。
悪意のあるクライアントの存在は、偽造されたローカルモデル交換を通じてグローバルモデルを操作するためのトレーニングデータを汚染するリスクをもたらす。
論文 参考訳(メタデータ) (2023-12-28T17:52:21Z) - Data and Model Poisoning Backdoor Attacks on Wireless Federated
Learning, and the Defense Mechanisms: A Comprehensive Survey [28.88186038735176]
無線通信ネットワーク(WCN)への応用については,フェデレートラーニング(FL)がますます検討されている。
一般に、WCNの非独立で同一に分布する(非IID)データは、堅牢性に関する懸念を提起する。
この調査は、最新のバックドア攻撃と防御メカニズムの包括的なレビューを提供する。
論文 参考訳(メタデータ) (2023-12-14T05:52:29Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - FLShield: A Validation Based Federated Learning Framework to Defend
Against Poisoning Attacks [1.8925617030516926]
フェデレーテッド・ラーニング(FL)は、自動運転車や医療など、多くの安全上重要な領域で使われている。
本稿では,FL参加者の良性データを用いて局所モデルを検証するFLShieldという新しいFLフレームワークを提案する。
我々はFLShieldフレームワークを様々な環境で評価し、様々な種類の毒やバックドア攻撃を阻止する効果を実証するために広範囲にわたる実験を行った。
論文 参考訳(メタデータ) (2023-08-10T19:29:44Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - OLIVE: Oblivious Federated Learning on Trusted Execution Environment
against the risk of sparsification [22.579050671255846]
本研究は,フェデレートラーニングと防衛におけるサーバサイドTEEの脆弱性の分析に焦点をあてる。
まず,メモリアクセスパターンの漏洩を理論的に解析し,スペーサー化勾配のリスクを明らかにする。
第2に、トレーニングデータセット内の機密情報にメモリアクセスパターンをリンクする推論攻撃を考案する。
論文 参考訳(メタデータ) (2022-02-15T03:23:57Z) - Meta Federated Learning [57.52103907134841]
フェデレートラーニング(FL)は、時間的敵攻撃の訓練に弱い。
本稿では,メタフェデレーション学習(Meta Federated Learning, Meta-FL)を提案する。
論文 参考訳(メタデータ) (2021-02-10T16:48:32Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - A Secure Federated Learning Framework for 5G Networks [44.40119258491145]
分散トレーニングデータセットを使用して機械学習モデルを構築するための新たなパラダイムとして、フェデレートラーニング(FL)が提案されている。
重大なセキュリティ上の脅威は2つあり、毒殺とメンバーシップ推論攻撃である。
ブロックチェーンベースのセキュアなFLフレームワークを提案し、スマートコントラクトを作成し、悪意のあるあるいは信頼性の低い参加者がFLに参加するのを防ぐ。
論文 参考訳(メタデータ) (2020-05-12T13:27:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。