論文の概要: Back to the Drawing Board: A Critical Evaluation of Poisoning Attacks on
Federated Learning
- arxiv url: http://arxiv.org/abs/2108.10241v1
- Date: Mon, 23 Aug 2021 15:29:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-24 15:18:58.888274
- Title: Back to the Drawing Board: A Critical Evaluation of Poisoning Attacks on
Federated Learning
- Title(参考訳): back to the drawing board: a critical evaluation of poisoning attacks on federated learning
- Authors: Virat Shejwalkar, Amir Houmansadr, Peter Kairouz and Daniel Ramage
- Abstract要約: 近年の研究では、フェデレート・ラーニング(FL)は、侵害されたクライアントによる攻撃に弱いことが示されている。
これらの研究はいくつかの非現実的な仮定を導いており、何らかの誤解を招く結論に達している。
本研究は,実用FL環境下での毒殺攻撃に関する最初の批判的分析を行う。
- 参考スコア(独自算出の注目度): 32.88150721857589
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While recent works have indicated that federated learning (FL) is vulnerable
to poisoning attacks by compromised clients, we show that these works make a
number of unrealistic assumptions and arrive at somewhat misleading
conclusions. For instance, they often use impractically high percentages of
compromised clients or assume unrealistic capabilities for the adversary. We
perform the first critical analysis of poisoning attacks under practical
production FL environments by carefully characterizing the set of realistic
threat models and adversarial capabilities. Our findings are rather surprising:
contrary to the established belief, we show that FL, even without any defenses,
is highly robust in practice. In fact, we go even further and propose novel,
state-of-the-art poisoning attacks under two realistic threat models, and show
via an extensive set of experiments across three benchmark datasets how
(in)effective poisoning attacks are, especially when simple defense mechanisms
are used. We correct previous misconceptions and give concrete guidelines that
we hope will encourage our community to conduct more accurate research in this
space and build stronger (and more realistic) attacks and defenses.
- Abstract(参考訳): 近年の研究では、フェデレートラーニング(FL)は、妥協されたクライアントによる攻撃に弱いことが示されていますが、これらの研究は非現実的な仮定を多く作り、誤解を招く結論に達しています。
例えば、彼らはしばしば非現実的に高いパーセンテージの漏洩したクライアントを使い、敵に対して非現実的な能力を仮定する。
我々は,現実的な脅威モデルと敵対的能力のセットを慎重に特徴付けることにより,実用的fl環境下での中毒攻撃の最初の批判的解析を行う。
確立された信念とは裏腹に, FLは, 防御がなくても, 実際には非常に堅牢であることを示す。
実際、私たちはさらに前進して、2つの現実的な脅威モデルの下で最先端の毒殺攻撃を提案し、3つのベンチマークデータセットにわたる広範囲な実験を通して、特に単純な防御メカニズムを使用する場合において、効果的な毒殺攻撃がどのように存在するかを示す。
我々は過去の誤解を修正し、我々のコミュニティがこの分野でより正確な研究を行い、より強力な(そしてより現実的な)攻撃と防衛を構築することを奨励する具体的なガイドラインを与えます。
関連論文リスト
- Mitigating Malicious Attacks in Federated Learning via Confidence-aware Defense [3.685395311534351]
Federated Learning(FL)は、分散機械学習ダイアグラムで、複数のクライアントがプライベートなローカルデータを共有せずに、グローバルモデルを協調的にトレーニングすることができる。
FLシステムは、データ中毒やモデル中毒を通じて悪意のあるクライアントで起こっている攻撃に対して脆弱である。
既存の防御方法は通常、特定の種類の中毒を緩和することに焦点を当てており、しばしば目に見えないタイプの攻撃に対して効果がない。
論文 参考訳(メタデータ) (2024-08-05T20:27:45Z) - Model Poisoning Attacks to Federated Learning via Multi-Round Consistency [42.132028389365075]
本稿では,悪意のあるクライアントのモデル更新間で複数ラウンドの一貫性を実現するPoisonedFLを提案する。
5つのベンチマークデータセットに対する実証的な評価は、PoisonedFLが8つの最先端の防御を破り、既存の7つのモデル中毒攻撃を上回っていることを示している。
論文 参考訳(メタデータ) (2024-04-24T03:02:21Z) - RECESS Vaccine for Federated Learning: Proactive Defense Against Model Poisoning Attacks [20.55681622921858]
モデル中毒は、フェデレートラーニング(FL)の適用を著しく阻害する
本研究では,モデル中毒に対するRECESSという新しいプロアクティブ・ディフェンスを提案する。
各イテレーションをスコアする従来の方法とは異なり、RECESSはクライアントのパフォーマンス相関を複数のイテレーションで考慮し、信頼スコアを見積もる。
論文 参考訳(メタデータ) (2023-10-09T06:09:01Z) - On Practical Aspects of Aggregation Defenses against Data Poisoning
Attacks [58.718697580177356]
悪意のあるトレーニングサンプルを持つディープラーニングモデルに対する攻撃は、データ中毒として知られている。
データ中毒に対する防衛戦略の最近の進歩は、認証された毒性の堅牢性を達成するためのアグリゲーション・スキームの有効性を強調している。
ここでは、Deep Partition Aggregation(ディープ・パーティション・アグリゲーション・アグリゲーション)、代表的アグリゲーション・ディフェンス(アグリゲーション・ディフェンス)に焦点を当て、効率、性能、堅牢性など、その実践的側面を評価する。
論文 参考訳(メタデータ) (2023-06-28T17:59:35Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Rethinking Textual Adversarial Defense for Pre-trained Language Models [79.18455635071817]
文献レビューでは、事前訓練された言語モデル(PrLM)が敵の攻撃に弱いことが示されている。
本稿では、現在の敵攻撃アプローチにより、より自然で知覚不能な敵の例を生成するための新しい指標(異常の度合い)を提案する。
我々は,我々のユニバーサル・ディフェンス・フレームワークが,他の特定のディフェンスと同等あるいはそれ以上のアフターアタック・ディフェンスの精度を達成することを示す。
論文 参考訳(メタデータ) (2022-07-21T07:51:45Z) - On The Empirical Effectiveness of Unrealistic Adversarial Hardening
Against Realistic Adversarial Attacks [9.247680268877795]
本研究では,非現実的対向例が実例からモデルを保護するのに有効かどうかを考察する。
その結果,非現実的な例が現実的な例と同等に有効である場合や,限られた改善しか得られない場合とでは,ユースケース間での相違が明らかとなった。
効果的硬化に使用できる非現実的な例を識別するパターンに光を当てた。
論文 参考訳(メタデータ) (2022-02-07T15:08:10Z) - Provable Defense Against Delusive Poisoning [64.69220849669948]
本研究は, 対人訓練が妄想性中毒に対する防御法であることを示す。
これは、敵の訓練が妄想的中毒に対する原則的な防御方法であることを意味している。
論文 参考訳(メタデータ) (2021-02-09T09:19:47Z) - Guided Adversarial Attack for Evaluating and Enhancing Adversarial
Defenses [59.58128343334556]
我々は、より適切な勾配方向を見つけ、攻撃効果を高め、より効率的な対人訓練をもたらす標準損失に緩和項を導入する。
本稿では, クリーン画像の関数マッピングを用いて, 敵生成を誘導するGAMA ( Guided Adversarial Margin Attack) を提案する。
また,一段防衛における最先端性能を実現するためのGAT ( Guided Adversarial Training) を提案する。
論文 参考訳(メタデータ) (2020-11-30T16:39:39Z) - Defending Regression Learners Against Poisoning Attacks [25.06658793731661]
N-LIDと呼ばれる新しい局所固有次元(LID)に基づく測度を導入し,その近傍データ点のLIDの局所偏差を測定する。
N-LIDは、正常なサンプルから有毒なサンプルを識別し、攻撃者を仮定しないN-LIDベースの防御アプローチを提案する。
提案した防御機構は,予測精度(未固定リッジモデルと比較して最大76%低いMSE)とランニング時間において,より優れることを示す。
論文 参考訳(メタデータ) (2020-08-21T03:02:58Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。