論文の概要: Federated Hybrid Training and Self-Adversarial Distillation: Towards Robust Edge Networks
- arxiv url: http://arxiv.org/abs/2412.19354v1
- Date: Thu, 26 Dec 2024 21:32:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:28:16.331199
- Title: Federated Hybrid Training and Self-Adversarial Distillation: Towards Robust Edge Networks
- Title(参考訳): フェデレートハイブリッドトレーニングと自己反対蒸留--ロバストエッジネットワークに向けて
- Authors: Yu Qiao, Apurba Adhikary, Kitae Kim, Eui-Nam Huh, Zhu Han, Choong Seon Hong,
- Abstract要約: Federated Learning(FL)は、モバイルエッジネットワークにおけるデータのプライバシを高める分散トレーニング技術である。
We propose Federated hyBrid Adversarial Training and self-adversarial distillation (FedBAT)。
FedBATは、ハイブリッド逆行訓練と自己逆行蒸留を従来のFLフレームワークに統合する。
- 参考スコア(独自算出の注目度): 43.723206630188656
- License:
- Abstract: Federated learning (FL) is a distributed training technology that enhances data privacy in mobile edge networks by allowing data owners to collaborate without transmitting raw data to the edge server. However, data heterogeneity and adversarial attacks pose challenges to develop an unbiased and robust global model for edge deployment. To address this, we propose Federated hyBrid Adversarial training and self-adversarial disTillation (FedBAT), a new framework designed to improve both robustness and generalization of the global model. FedBAT seamlessly integrates hybrid adversarial training and self-adversarial distillation into the conventional FL framework from data augmentation and feature distillation perspectives. From a data augmentation perspective, we propose hybrid adversarial training to defend against adversarial attacks by balancing accuracy and robustness through a weighted combination of standard and adversarial training. From a feature distillation perspective, we introduce a novel augmentation-invariant adversarial distillation method that aligns local adversarial features of augmented images with their corresponding unbiased global clean features. This alignment can effectively mitigate bias from data heterogeneity while enhancing both the robustness and generalization of the global model. Extensive experimental results across multiple datasets demonstrate that FedBAT yields comparable or superior performance gains in improving robustness while maintaining accuracy compared to several baselines.
- Abstract(参考訳): Federated Learning(FL)は、エッジサーバに生データを送信することなく、データ所有者がコラボレーションできるようにすることで、モバイルエッジネットワークにおけるデータプライバシを向上させる分散トレーニング技術である。
しかし、データの不均一性と敵対攻撃は、エッジデプロイメントのための非バイアス付きで堅牢なグローバルモデルを開発する上での課題となる。
そこで我々は,グローバルモデルの堅牢性と一般化を両立させる新しいフレームワークであるFederated hyBrid Adversarial Training and Self-Adversarial DisTillation (FedBAT)を提案する。
FedBATは、データ拡張と特徴蒸留の観点から、ハイブリッド逆行訓練と自己逆行蒸留を従来のFLフレームワークにシームレスに統合する。
データ強化の観点から、我々は、標準的な訓練と敵の訓練の重み付けによる精度と堅牢さのバランスをとることによって、敵の攻撃に対して防御するハイブリッド敵の訓練を提案する。
特徴蒸留の観点からは,拡張画像の局所的対向特性とそれに対応する非偏向な大域的清浄特徴とを整合させる,新しい拡張不変対向蒸留法を導入する。
このアライメントは、グローバルモデルの堅牢性と一般化を両立させながら、データの不均一性からバイアスを効果的に軽減することができる。
複数のデータセットにわたる大規模な実験結果から、FedBATは、複数のベースラインと比較して精度を保ちながらロバスト性を改善しながら、同等または優れたパフォーマンス向上をもたらすことが示されている。
関連論文リスト
- Generative AI-Powered Plugin for Robust Federated Learning in Heterogeneous IoT Networks [3.536605202672355]
フェデレーション学習により、エッジデバイスは、データのローカライズを維持しながら、データのプライバシを維持しながら、グローバルモデルを協調的にトレーニングすることが可能になる。
我々は,AI強化データ拡張と均衡サンプリング戦略により,IIDからIDDへの非IIDデータ分布を近似する,フェデレーション最適化技術のための新しいプラグインを提案する。
論文 参考訳(メタデータ) (2024-10-31T11:13:47Z) - On ADMM in Heterogeneous Federated Learning: Personalization, Robustness, and Fairness [16.595935469099306]
本稿では,乗算器の交互方向法(ADMM)を利用して,パーソナライズおよびグローバルモデルの学習を行う最適化フレームワークFLAMEを提案する。
我々の理論的解析は、軽度の仮定の下で、FLAMEのグローバル収束と2種類の収束速度を確立する。
実験の結果,FLAMEは収束と精度において最先端の手法より優れており,各種攻撃下では高い精度を達成できることがわかった。
論文 参考訳(メタデータ) (2024-07-23T11:35:42Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Logit Calibration and Feature Contrast for Robust Federated Learning on Non-IID Data [45.11652096723593]
Federated Learning(FL)は、エッジネットワークのデバイス上で協調的なモデルトレーニングを行うための、プライバシ保護のための分散フレームワークである。
本稿では,ローカルロジットアンダーラインキャリブレーションとグローバル機能アンダーラインコントラストを,ロジットと特徴の両方の観点から,バニラフェデレーション付き対人訓練プロセスに組み込んだFatCCを提案する。
論文 参考訳(メタデータ) (2024-04-10T06:35:25Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - FedRAD: Federated Robust Adaptive Distillation [7.775374800382709]
一般的にモデルの更新を集約するコラボレーション学習フレームワークは、敵のクライアントによる毒殺攻撃のモデルに対して脆弱である。
本稿では,新たなロバスト適応蒸留法 (FedRAD) を提案する。
その結果,FedRADは敵の存在や異種データ分布において,他のアグリゲータよりも優れていた。
論文 参考訳(メタデータ) (2021-12-02T16:50:57Z) - Guided Interpolation for Adversarial Training [73.91493448651306]
トレーニングが進むにつれて、トレーニングデータは徐々に攻撃しやすくなり、堅牢性の向上が損なわれる。
本稿では,前時代のメタ情報を用いて,データの逆変換をガイドするguided framework(gif)を提案する。
バニラミキサアップと比較すると、GIFは攻撃可能なデータの比率を高くすることができ、堅牢性向上に有効である。
論文 参考訳(メタデータ) (2021-02-15T03:55:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。