論文の概要: POLAR: Policy-based Layerwise Reinforcement Learning Method for Stealthy Backdoor Attacks in Federated Learning
- arxiv url: http://arxiv.org/abs/2510.19056v1
- Date: Tue, 21 Oct 2025 20:17:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:14.630516
- Title: POLAR: Policy-based Layerwise Reinforcement Learning Method for Stealthy Backdoor Attacks in Federated Learning
- Title(参考訳): POLAR:フェデレーション学習における静的バックドア攻撃のためのポリシーに基づく階層強化学習手法
- Authors: Kuai Yu, Xiaoyu Wu, Peishen Yan, Qingqian Yang, Linshan Jiang, Hao Wang, Yang Hua, Tao Song, Haibing Guan,
- Abstract要約: フェデレートラーニング(FL)は、ローカルデータを公開せずに、複数のクライアントにわたる分散モデルトレーニングを可能にする。
初期のFLバックドア攻撃はモデル全体を改変したものの、最近の研究ではバックドアクリティカルな層の概念を探求している。
POLAR(Policy-based LAyerwise Reinforcement Learning)は,BC層選択問題を解決するためにRLを創造的に採用する最初のパイプラインである。
- 参考スコア(独自算出の注目度): 25.124855276343236
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Federated Learning (FL) enables decentralized model training across multiple clients without exposing local data, but its distributed feature makes it vulnerable to backdoor attacks. Despite early FL backdoor attacks modifying entire models, recent studies have explored the concept of backdoor-critical (BC) layers, which poison the chosen influential layers to maintain stealthiness while achieving high effectiveness. However, existing BC layers approaches rely on rule-based selection without consideration of the interrelations between layers, making them ineffective and prone to detection by advanced defenses. In this paper, we propose POLAR (POlicy-based LAyerwise Reinforcement learning), the first pipeline to creatively adopt RL to solve the BC layer selection problem in layer-wise backdoor attack. Different from other commonly used RL paradigm, POLAR is lightweight with Bernoulli sampling. POLAR dynamically learns an attack strategy, optimizing layer selection using policy gradient updates based on backdoor success rate (BSR) improvements. To ensure stealthiness, we introduce a regularization constraint that limits the number of modified layers by penalizing large attack footprints. Extensive experiments demonstrate that POLAR outperforms the latest attack methods by up to 40% against six state-of-the-art (SOTA) defenses.
- Abstract(参考訳): フェデレートラーニング(FL)は、ローカルデータを公開せずに複数のクライアント間での分散モデルトレーニングを可能にするが、その分散機能はバックドアアタックに対して脆弱である。
初期のFLバックドア攻撃はモデル全体を改変したものの、最近の研究ではバックドアクリティカル(BC)層の概念を探求している。
しかし、既存のBC層アプローチは、層間の相互関係を考慮せずにルールベースの選択に依存しており、先進的な防御によって検出されがちである。
本稿では,POLAR(Policy-based LAyerwise Reinforcement Learning)を提案する。これは,レイヤワイドバックドアアタックにおけるBC層選択問題を解決するために,RLを創造的に採用する最初のパイプラインである。
他の一般的なRLパラダイムとは異なり、POLARはベルヌーイサンプリングで軽量である。
POLARは攻撃戦略を動的に学習し、バックドア成功率(BSR)の改善に基づくポリシー勾配更新による層選択を最適化する。
ステルス性を確保するために,大規模な攻撃フットプリントをペナル化することで,修正レイヤの数を制限する正規化制約を導入する。
大規模な実験により、POLARは6つのSOTA(State-of-the-art-the-art)ディフェンスに対して、最新の攻撃方法よりも40%高い性能を示した。
関連論文リスト
- Reinforcement Learning for Decision-Level Interception Prioritization in Drone Swarm Defense [51.736723807086385]
本稿では,この課題に対処する上で,強化学習の実践的メリットを示すケーススタディを提案する。
本研究では,現実的な運用制約を捉えた高忠実度シミュレーション環境を提案する。
エージェントは最適なインターセプション優先順位付けのために複数のエフェクターを調整することを学ぶ。
我々は、何百ものシミュレートされた攻撃シナリオにおいて、手作りルールベースのベースラインに対する学習ポリシーを評価する。
論文 参考訳(メタデータ) (2025-08-01T13:55:39Z) - Local Pairwise Distance Matching for Backpropagation-Free Reinforcement Learning [0.9065034043031668]
強化学習(RL)を用いたニューラルネットワークのトレーニングは一般的にバックプロパゲーション(BP)に依存している
BPは後続の更新のためにフォワードパスからのアクティベーションを格納する必要がある。
本稿では、RL設定において、前部パス中の局所信号を用いてニューラルネットワークの各層をトレーニングする新しいアプローチを提案する。
論文 参考訳(メタデータ) (2025-07-15T14:39:41Z) - ARBoids: Adaptive Residual Reinforcement Learning With Boids Model for Cooperative Multi-USV Target Defense [0.918715978278858]
本稿では,適応型強化学習フレームワークであるABBoidsを紹介する。
深層強化学習と、生物学的にインスパイアされた力に基づくBoidsモデルを統合する。
提案手法は高忠実度ガゼボシミュレーション環境で検証される。
論文 参考訳(メタデータ) (2025-02-25T16:05:33Z) - Class-Conditional Neural Polarizer: A Lightweight and Effective Backdoor Defense by Purifying Poisoned Features [58.44299620519961]
最近の研究は、バックドア攻撃に対するディープニューラルネットワークの脆弱性を強調している。
ニューラルポーラライザーベースディフェンス(CNPD)という,軽量なバックドアディフェンス手法を提案する。
CNPDは、バックドアモデルの予測ラベルと、浄化すべき機能を統合する。
論文 参考訳(メタデータ) (2025-02-23T11:11:16Z) - ELBA-Bench: An Efficient Learning Backdoor Attacks Benchmark for Large Language Models [55.93380086403591]
生成可能な大規模言語モデルは、バックドアアタックに対して脆弱である。
$textitELBA-Bench$は、パラメータを効率的に微調整することで攻撃者がバックドアを注入できるようにする。
$textitELBA-Bench$は1300以上の実験を提供する。
論文 参考訳(メタデータ) (2025-02-22T12:55:28Z) - Continuous Knowledge-Preserving Decomposition with Adaptive Layer Selection for Few-Shot Class-Incremental Learning [73.59672160329296]
CKPD-FSCILは、事前訓練された重量の未使用容量を解放する統合フレームワークである。
本手法は,適応性と知識保持の両面で,最先端の手法より一貫して優れている。
論文 参考訳(メタデータ) (2025-01-09T07:18:48Z) - Backdoor Federated Learning by Poisoning Backdoor-Critical Layers [32.510730902353224]
フェデレートラーニング(FL)は、分散デバイス間の機密データに対する機械学習トレーニングを可能にするために広くデプロイされている。
本稿では,攻撃者の視点からバックドア層を同定し,検証する一般的なin-situアプローチを提案する。
特定されたBC層に基づいて、様々な防衛戦略の下で攻撃効果とステルスネスの基本的なバランスを適応的に求める新しいバックドアアタック手法を慎重に構築する。
論文 参考訳(メタデータ) (2023-08-08T05:46:47Z) - LAS-AT: Adversarial Training with Learnable Attack Strategy [82.88724890186094]
LAS-ATと呼ばれる「学習可能な攻撃戦略」は、モデル堅牢性を改善するための攻撃戦略を自動生成することを学ぶ。
当社のフレームワークは,強靭性向上のためのトレーニングにAEを使用するターゲットネットワークと,AE生成を制御するための攻撃戦略を生成する戦略ネットワークで構成されている。
論文 参考訳(メタデータ) (2022-03-13T10:21:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。