論文の概要: Meta Stackelberg Game: Robust Federated Learning against Adaptive and Mixed Poisoning Attacks
- arxiv url: http://arxiv.org/abs/2410.17431v1
- Date: Tue, 22 Oct 2024 21:08:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-24 13:55:59.413587
- Title: Meta Stackelberg Game: Robust Federated Learning against Adaptive and Mixed Poisoning Attacks
- Title(参考訳): Meta Stackelbergゲーム: 適応性と混在した攻撃に対するロバストなフェデレーション学習
- Authors: Tao Li, Henger Li, Yunian Pan, Tianyi Xu, Zizhan Zheng, Quanyan Zhu,
- Abstract要約: フェデレーテッド・ラーニング(FL)は、様々なセキュリティ上の脅威を受けやすい。
我々は,ゲーム解決のための効果的なメタラーニング手法を開発し,堅牢で適応的なFLディフェンスを実現する。
- 参考スコア(独自算出の注目度): 15.199885837603576
- License:
- Abstract: Federated learning (FL) is susceptible to a range of security threats. Although various defense mechanisms have been proposed, they are typically non-adaptive and tailored to specific types of attacks, leaving them insufficient in the face of multiple uncertain, unknown, and adaptive attacks employing diverse strategies. This work formulates adversarial federated learning under a mixture of various attacks as a Bayesian Stackelberg Markov game, based on which we propose the meta-Stackelberg defense composed of pre-training and online adaptation. {The gist is to simulate strong attack behavior using reinforcement learning (RL-based attacks) in pre-training and then design meta-RL-based defense to combat diverse and adaptive attacks.} We develop an efficient meta-learning approach to solve the game, leading to a robust and adaptive FL defense. Theoretically, our meta-learning algorithm, meta-Stackelberg learning, provably converges to the first-order $\varepsilon$-meta-equilibrium point in $O(\varepsilon^{-2})$ gradient iterations with $O(\varepsilon^{-4})$ samples per iteration. Experiments show that our meta-Stackelberg framework performs superbly against strong model poisoning and backdoor attacks of uncertain and unknown types.
- Abstract(参考訳): フェデレーテッド・ラーニング(FL)は、様々なセキュリティ上の脅威を受けやすい。
様々な防御機構が提案されているが、それらは典型的には適応的ではなく、特定の攻撃の種類に合わせて調整されており、多岐にわたる不確実な、未知の、適応的な攻撃に直面しては不十分である。
本研究は,Bayesian Stackelberg Markov ゲームとして様々な攻撃を混在させた対人連合学習を定式化し,事前学習とオンライン適応からなるメタスタックルバーグ防衛を提案する。
The gist issimulated strong attack behavior using reinforcement learning (RL-based attack) in pre-training and design meta-RL-based defense to combat various and adapt attack。
より効率的なメタ学習手法を開発し,より堅牢で適応的なFLディフェンスを実現する。
理論的には,我々のメタ学習アルゴリズムであるメタStackelberg Learningは,1次$\varepsilon$-meta-equilibrium point in $O(\varepsilon^{-2})$ gradient iterations with $O(\varepsilon^{-4})$ sample per iterations。
実験により、我々のメタStackelbergフレームワークは、不確実で未知のタイプの強力なモデル中毒やバックドア攻撃に対して非常に効果があることが示された。
関連論文リスト
- Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Optimal Attack and Defense for Reinforcement Learning [11.36770403327493]
敵RLでは、外部攻撃者は、環境との相互作用を操作できる。
我々は、攻撃者が予想される報酬を最大化するステルス攻撃を設計する際の問題を示す。
被害者に対する最適な防衛方針は,Stackelbergゲームに対する解決策として計算できる,と我々は主張する。
論文 参考訳(メタデータ) (2023-11-30T21:21:47Z) - A First Order Meta Stackelberg Method for Robust Federated Learning [19.130600532727062]
この研究はBayesian Stackelberg Markov Game(BSMG)として逆連合学習をモデル化する。
本稿では,BSMGの平衡戦略を解決するために,メタスタックバーグ学習(メタSL)を提案する。
メタSLは1次$varepsilon$平衡点に収束し、$O(varepsilon-2)$グラデーション、$O(varepsilon-4)$反復に必要なサンプルを持つことを示した。
論文 参考訳(メタデータ) (2023-06-23T22:22:33Z) - MultiRobustBench: Benchmarking Robustness Against Multiple Attacks [86.70417016955459]
機械学習(ML)モデルに対するマルチアタックを検討するための,最初の統一フレームワークを提案する。
我々のフレームワークは、テストタイムの敵について異なるレベルの学習者の知識をモデル化することができる。
9種類の攻撃に対して16種類の防御モデルの有効性を評価した。
論文 参考訳(メタデータ) (2023-02-21T20:26:39Z) - Sampling Attacks on Meta Reinforcement Learning: A Minimax Formulation
and Complexity Analysis [20.11993437283895]
本稿では,この種のセキュリティリスクを理解するためのゲーム理論的基盤を提供する。
我々は、サンプリング攻撃モデルを、攻撃者とエージェントの間のスタックルバーグゲームとして定義し、最小限の定式化をもたらす。
我々は,攻撃者の小さな努力が学習性能を著しく低下させる可能性があることを観察した。
論文 参考訳(メタデータ) (2022-07-29T21:29:29Z) - LAS-AT: Adversarial Training with Learnable Attack Strategy [82.88724890186094]
LAS-ATと呼ばれる「学習可能な攻撃戦略」は、モデル堅牢性を改善するための攻撃戦略を自動生成することを学ぶ。
当社のフレームワークは,強靭性向上のためのトレーニングにAEを使用するターゲットネットワークと,AE生成を制御するための攻撃戦略を生成する戦略ネットワークで構成されている。
論文 参考訳(メタデータ) (2022-03-13T10:21:26Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Robust Federated Learning with Attack-Adaptive Aggregation [45.60981228410952]
フェデレート学習は、モデル中毒やバックドア攻撃など、様々な攻撃に対して脆弱である。
本研究では,ロバスト学習のためのアタック・アダプティブ・アグリゲーション戦略を提案する。
論文 参考訳(メタデータ) (2021-02-10T04:23:23Z) - Yet Meta Learning Can Adapt Fast, It Can Also Break Easily [53.65787902272109]
数発の分類問題の下で,メタ学習に対する敵対的攻撃について検討した。
様々な環境下でのメタ学習に対する最初の攻撃アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-02T15:03:14Z) - Multi-agent Reinforcement Learning in Bayesian Stackelberg Markov Games
for Adaptive Moving Target Defense [22.760124873882184]
我々は,有理逆問題に関する情報が不十分な場合,既存のモデルは逐次的設定では不十分であると主張している。
我々はBayesian Stackelberg Markov Games (BSMGs)と呼ばれる統一ゲーム理論モデルを提案する。
我々は,学習アプローチがBSMGのSSEに収束していることを示し,学習運動政策がWebアプリケーションセキュリティのためのMTDの最先端技術を改善することを強調した。
論文 参考訳(メタデータ) (2020-07-20T20:34:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。