論文の概要: Defending Against Diverse Attacks in Federated Learning Through Consensus-Based Bi-Level Optimization
- arxiv url: http://arxiv.org/abs/2412.02535v1
- Date: Tue, 03 Dec 2024 16:26:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:46:11.590913
- Title: Defending Against Diverse Attacks in Federated Learning Through Consensus-Based Bi-Level Optimization
- Title(参考訳): 合意に基づく双方向最適化によるフェデレーション学習における異種攻撃の回避
- Authors: Nicolás García Trillos, Aditya Kumar Akash, Sixu Li, Konstantin Riedl, Yuhua Zhu,
- Abstract要約: 敵対的攻撃は、多くの機械学習アプリケーションに重大な課題をもたらす。
我々は, 対角的条件下でのコンセンサスに基づく二段階最適化(CB$2$O)のレジリエンスを理論的に解析する。
我々は,相互作用する新しい多粒子系であるFedCB$2$Oを提案し,実世界のアプリケーションの要求に対処する実用的なアルゴリズムを設計する。
- 参考スコア(独自算出の注目度): 6.484902940268382
- License:
- Abstract: Adversarial attacks pose significant challenges in many machine learning applications, particularly in the setting of distributed training and federated learning, where malicious agents seek to corrupt the training process with the goal of jeopardizing and compromising the performance and reliability of the final models. In this paper, we address the problem of robust federated learning in the presence of such attacks by formulating the training task as a bi-level optimization problem. We conduct a theoretical analysis of the resilience of consensus-based bi-level optimization (CB$^2$O), an interacting multi-particle metaheuristic optimization method, in adversarial settings. Specifically, we provide a global convergence analysis of CB$^2$O in mean-field law in the presence of malicious agents, demonstrating the robustness of CB$^2$O against a diverse range of attacks. Thereby, we offer insights into how specific hyperparameter choices enable to mitigate adversarial effects. On the practical side, we extend CB$^2$O to the clustered federated learning setting by proposing FedCB$^2$O, a novel interacting multi-particle system, and design a practical algorithm that addresses the demands of real-world applications. Extensive experiments demonstrate the robustness of the FedCB$^2$O algorithm against label-flipping attacks in decentralized clustered federated learning scenarios, showcasing its effectiveness in practical contexts.
- Abstract(参考訳): 敵対的攻撃は、多くの機械学習アプリケーション、特に分散トレーニングとフェデレーション学習の設定において、最終モデルの性能と信頼性を危険にさらすことを目的として、悪意のあるエージェントがトレーニングプロセスを腐敗させようとする、重大な課題を引き起こす。
本稿では,2段階最適化問題としてトレーニングタスクを定式化することにより,このような攻撃が存在する場合の堅牢なフェデレーション学習の問題に対処する。
本稿では, 相互作用する多粒子メタヒューリスティック最適化法CB$2$Oのレジリエンスを, 対角的条件下で理論的に解析する。
具体的には、悪意のあるエージェントの存在下での平均場法におけるCB$^2$Oのグローバル収束分析を行い、多様な攻撃に対するCB$^2$Oの堅牢性を示す。
これにより、特定のハイパーパラメータの選択が、逆効果を緩和する方法についての洞察を提供する。
実用面では、CB$2$Oを相互作用する新しい多粒子系であるFedCB$2$Oを提案することにより、クラスタ化されたフェデレート学習環境に拡張し、実世界のアプリケーションのニーズに対処する実用的なアルゴリズムを設計する。
FedCB$2$Oアルゴリズムの分散クラスタ化学習シナリオにおけるラベルフリップ攻撃に対するロバスト性を示す実験により,実運用環境での有効性を示す。
関連論文リスト
- Adversarial Robustness in Two-Stage Learning-to-Defer: Algorithms and Guarantees [3.6787328174619254]
Learning-to-Defer(L2D)は、AIシステムと意思決定者間の最適なタスク割り当てを容易にする。
本稿では, 2段階のL2Dフレームワークにおいて, 対向ロバスト性の最初の包括的解析を行う。
我々はベイズと$(mathcalR,mathcalG)$-consistencyをルーツとする頑健で凸なdeferralアルゴリズムであるSARDを提案する。
論文 参考訳(メタデータ) (2025-02-03T03:44:35Z) - Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - Multi-granular Adversarial Attacks against Black-box Neural Ranking Models [111.58315434849047]
多粒性摂動を取り入れた高品質な逆数例を作成する。
我々は,多粒体攻撃を逐次的意思決定プロセスに変換する。
本手法は,攻撃の有効性と非受容性の両方において,一般的なベースラインを超えている。
論文 参考訳(メタデータ) (2024-04-02T02:08:29Z) - Discriminative Adversarial Unlearning [40.30974185546541]
我々は、min-max最適化パラダイムの確立した原則に基づいて、新しい機械学習フレームワークを導入する。
我々は、訓練されたモデルから特定のサンプルの学習を容易にするために、強力なメンバーシップ推論攻撃(MIA)の能力を利用する。
提案アルゴリズムは,スクラッチから再学習する理想的なベンチマークを,ランダムサンプルの忘れ方とクラスワイドの忘れ方の両方に近似する。
論文 参考訳(メタデータ) (2024-02-10T03:04:57Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Delving into the Adversarial Robustness of Federated Learning [41.409961662754405]
フェデレートラーニング(FL)では、モデルは敵の例に対して中心的に訓練されたモデルと同じくらい脆弱である。
FLシステムの精度と堅牢性を改善するために,DBFAT(Decision boundary based Federated Adversarial Training)と呼ばれる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-19T04:54:25Z) - Towards Adversarial Realism and Robust Learning for IoT Intrusion
Detection and Classification [0.0]
IoT(Internet of Things)は、重大なセキュリティ上の課題に直面している。
敵の攻撃による脅威の増大は、信頼できる防衛戦略の必要性を回復させる。
本研究は、敵のサイバー攻撃事例が現実的であるために必要な制約の種類について述べる。
論文 参考訳(メタデータ) (2023-01-30T18:00:28Z) - Enhancing Adversarial Training with Feature Separability [52.39305978984573]
本稿では,特徴分離性を備えた対人訓練(ATFS)により,クラス内特徴の類似性を向上し,クラス間特徴分散を増大させることができる,新たな対人訓練グラフ(ATG)を提案する。
包括的な実験を通じて、提案したATFSフレームワークがクリーンかつロバストなパフォーマンスを著しく改善することを示した。
論文 参考訳(メタデータ) (2022-05-02T04:04:23Z) - Learn2Perturb: an End-to-end Feature Perturbation Learning to Improve
Adversarial Robustness [79.47619798416194]
Learn2Perturbは、ディープニューラルネットワークの対角的堅牢性を改善するために、エンドツーエンドの機能摂動学習アプローチである。
予測最大化にインスパイアされ、ネットワークと雑音パラメータを連続的にトレーニングするために、交互にバックプロパゲーショントレーニングアルゴリズムが導入された。
論文 参考訳(メタデータ) (2020-03-02T18:27:35Z) - Boosting Adversarial Training with Hypersphere Embedding [53.75693100495097]
敵対的訓練は、ディープラーニングモデルに対する敵対的攻撃に対する最も効果的な防御の1つである。
本研究では,超球埋め込み機構をATプロシージャに組み込むことを提唱する。
我々は,CIFAR-10 と ImageNet データセットに対する幅広い敵対攻撃の下で本手法を検証した。
論文 参考訳(メタデータ) (2020-02-20T08:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。