論文の概要: Challenges and approaches for mitigating byzantine attacks in federated
learning
- arxiv url: http://arxiv.org/abs/2112.14468v1
- Date: Wed, 29 Dec 2021 09:24:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-30 20:19:02.379774
- Title: Challenges and approaches for mitigating byzantine attacks in federated
learning
- Title(参考訳): 連合学習におけるビザンチン攻撃緩和の課題とアプローチ
- Authors: Shengshan Hu and Jianrong Lu and Wei Wan and Leo Yu Zhang
- Abstract要約: フェデレーテッド・ラーニング(FL)は、多くの無線エンドユーザーデバイスがデータを使いながらグローバルモデルをトレーニングできる、魅力的な分散学習フレームワークである。
将来性はあるものの、従来の分散ネットワークの難易度の高い脅威であるビザンチン攻撃はFLにも有効であることが判明した。
そこで我々は,これらの防御策を打ち破り,その脅威を実証するための実験を行うために,重み攻撃と呼ばれる新たなビザンチン攻撃法を提案する。
- 参考スコア(独自算出の注目度): 6.836162272841266
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently emerged federated learning (FL) is an attractive distributed
learning framework in which numerous wireless end-user devices can train a
global model with the data remained autochthonous. Compared with the
traditional machine learning framework that collects user data for centralized
storage, which brings huge communication burden and concerns about data
privacy, this approach can not only save the network bandwidth but also protect
the data privacy. Despite the promising prospect, byzantine attack, an
intractable threat in conventional distributed network, is discovered to be
rather efficacious against FL as well. In this paper, we conduct a
comprehensive investigation of the state-of-the-art strategies for defending
against byzantine attacks in FL. We first provide a taxonomy for the existing
defense solutions according to the techniques they used, followed by an
across-the-board comparison and discussion. Then we propose a new byzantine
attack method called weight attack to defeat those defense schemes, and conduct
experiments to demonstrate its threat. The results show that existing defense
solutions, although abundant, are still far from fully protecting FL. Finally,
we indicate possible countermeasures for weight attack, and highlight several
challenges and future research directions for mitigating byzantine attacks in
FL.
- Abstract(参考訳): 近年出現したフェデレートラーニング(FL)は、多くの無線エンドユーザーデバイスが、データを自動同期したグローバルモデルをトレーニングできる、魅力的な分散学習フレームワークである。
集中ストレージのためにユーザデータを収集する従来の機械学習フレームワークと比較すると、通信の負担が大きくなり、データプライバシが懸念されるため、このアプローチはネットワーク帯域幅を節約できるだけでなく、データのプライバシも保護できる。
将来性はあるものの、従来の分散ネットワークの難易度の高い脅威であるビザンチン攻撃はFLにも有効であることが判明した。
本稿では,FLにおけるビザンチン攻撃を防御するための最先端戦略を包括的に調査する。
まず、使用した技術に従って、既存の防衛ソリューションに対して分類を提供し、その後、全体比較と議論を行う。
次に,これらの防衛計画を打ち破るために,重み攻撃と呼ばれる新しいビザンチン攻撃法を提案し,その脅威を実証するための実験を行う。
その結果、既存の防衛ソリューションは豊富ではあるが、flを完全に保護するには程遠いことが判明した。
最後に,重み攻撃対策の可能性を示し,flにおけるビザンチン攻撃の軽減に向けたいくつかの課題と今後の研究方向について述べる。
関連論文リスト
- FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Celtibero: Robust Layered Aggregation for Federated Learning [0.0]
Celtiberoは, 対向操作に対する強靭性を高めるため, 層状アグリゲーションを統合した新しい防御機構である。
セルティベロは、標的外および標的標的の毒殺攻撃において、最小攻撃成功率(ASR)を維持しつつ、常に高い主タスク精度(MTA)を達成することを実証した。
論文 参考訳(メタデータ) (2024-08-26T12:54:00Z) - Defending against Data Poisoning Attacks in Federated Learning via User Elimination [0.0]
本稿では,フェデレーションモデルにおける敵ユーザの戦略的排除に焦点を当てた,新たなフレームワークを提案する。
我々は、ローカルトレーニングインスタンスが収集したメタデータと差分プライバシー技術を統合することにより、フェデレートアルゴリズムのアグリゲーションフェーズにおける異常を検出する。
提案手法の有効性を実証し,ユーザのプライバシとモデル性能を維持しながらデータ汚染のリスクを大幅に軽減する。
論文 参考訳(メタデータ) (2024-04-19T10:36:00Z) - Securing NextG Systems against Poisoning Attacks on Federated Learning:
A Game-Theoretic Solution [9.800359613640763]
本稿では,フェデレートラーニング(FL)システムにおける毒性攻撃と防御相互作用について検討する。
FLは、クライアントがデータサンプルを交換する必要なしに、グローバルモデルを集合的にトレーニングする。
悪意のあるクライアントの存在は、偽造されたローカルモデル交換を通じてグローバルモデルを操作するためのトレーニングデータを汚染するリスクをもたらす。
論文 参考訳(メタデータ) (2023-12-28T17:52:21Z) - Data and Model Poisoning Backdoor Attacks on Wireless Federated
Learning, and the Defense Mechanisms: A Comprehensive Survey [28.88186038735176]
無線通信ネットワーク(WCN)への応用については,フェデレートラーニング(FL)がますます検討されている。
一般に、WCNの非独立で同一に分布する(非IID)データは、堅牢性に関する懸念を提起する。
この調査は、最新のバックドア攻撃と防御メカニズムの包括的なレビューを提供する。
論文 参考訳(メタデータ) (2023-12-14T05:52:29Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - FLShield: A Validation Based Federated Learning Framework to Defend
Against Poisoning Attacks [1.8925617030516926]
フェデレーテッド・ラーニング(FL)は、自動運転車や医療など、多くの安全上重要な領域で使われている。
本稿では,FL参加者の良性データを用いて局所モデルを検証するFLShieldという新しいFLフレームワークを提案する。
我々はFLShieldフレームワークを様々な環境で評価し、様々な種類の毒やバックドア攻撃を阻止する効果を実証するために広範囲にわたる実験を行った。
論文 参考訳(メタデータ) (2023-08-10T19:29:44Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Meta Federated Learning [57.52103907134841]
フェデレートラーニング(FL)は、時間的敵攻撃の訓練に弱い。
本稿では,メタフェデレーション学習(Meta Federated Learning, Meta-FL)を提案する。
論文 参考訳(メタデータ) (2021-02-10T16:48:32Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。