論文の概要: Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning
- arxiv url: http://arxiv.org/abs/2106.10196v1
- Date: Fri, 18 Jun 2021 15:52:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-21 14:13:26.363861
- Title: Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning
- Title(参考訳): federated robustness propagation: share adversarial robustness in federated learning
- Authors: Junyuan Hong, Haotao Wang, Zhangyang Wang, Jiayu Zhou
- Abstract要約: フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
- 参考スコア(独自算出の注目度): 98.05061014090913
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) emerges as a popular distributed learning schema that
learns a model from a set of participating users without requiring raw data to
be shared. One major challenge of FL comes from heterogeneity in users, which
may have distributionally different (or non-iid) data and varying computation
resources. Just like in centralized learning, FL users also desire model
robustness against malicious attackers at test time. Whereas adversarial
training (AT) provides a sound solution for centralized learning, extending its
usage for FL users has imposed significant challenges, as many users may have
very limited training data as well as tight computational budgets, to afford
the data-hungry and costly AT. In this paper, we study a novel learning setting
that propagates adversarial robustness from high-resource users that can afford
AT, to those low-resource users that cannot afford it, during the FL process.
We show that existing FL techniques cannot effectively propagate adversarial
robustness among non-iid users, and propose a simple yet effective propagation
approach that transfers robustness through carefully designed
batch-normalization statistics. We demonstrate the rationality and
effectiveness of our method through extensive experiments. Especially, the
proposed method is shown to grant FL remarkable robustness even when only a
small portion of users afford AT during learning. Codes will be published upon
acceptance.
- Abstract(参考訳): フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットからモデルを学習する人気の分散ラーニングスキーマとして登場した。
flの大きな課題の1つは、分布的に異なる(または非iid)データと様々な計算リソースを持つユーザーの多様性である。
集中学習と同じように、FLユーザはテスト時に悪意のある攻撃者に対して、モデル堅牢性を望んでいる。
敵対的トレーニング(AT)は、中央集権学習のための健全なソリューションを提供するが、FLユーザの利用を拡大することは、多くのユーザにとって大きな課題となっている。
本稿では,ATを払えない高リソースユーザから,FLプロセス中において,ATを払えない低リソースユーザまで,敵対的ロバスト性を広める新たな学習環境について検討する。
既存のfl手法では,非iidユーザ間の対向的ロバスト性が効果的に伝播できないことを示し,注意深く設計されたバッチ正規化統計を用いてロバスト性を伝達する簡易かつ効果的な伝播手法を提案する。
実験により,本手法の合理性と有効性を示す。
特に,本提案手法は,学習中にATを利用できるユーザ数が少ない場合でも,FLに顕著な堅牢性を与える。
コードは受理次第公表される。
関連論文リスト
- StatAvg: Mitigating Data Heterogeneity in Federated Learning for Intrusion Detection Systems [22.259297167311964]
フェデレートラーニング(FL)は、デバイスが生データを第三者に公開することなく、共同で機械学習(ML)またはディープラーニング(DL)モデルを構築することができる分散学習技術である。
プライバシー保護の性質から、FLはサイバーセキュリティの領域内で侵入検知システム(IDS)を構築するために広く注目を集めている。
FLにおけるローカルクライアントのデータ間で,非独立かつ同一の(非ID)分散機能を緩和する,統計的平均化(StatAvg)と呼ばれる有効な手法を提案する。
論文 参考訳(メタデータ) (2024-05-20T14:41:59Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - Towards Reliable Participation in UAV-Enabled Federated Edge Learning on
Non-IID Data [22.775113283662883]
Federated Learning(FL)は、多くの参加者が共同でMLモデルをトレーニングできる、分散機械学習(ML)技術である。
FLは、悪意のあるUAVが有毒なローカルモデルをFLサーバーにアップロードする攻撃によって標的にすることができる。
本稿では,信頼性の高い高速UAVを優先することで収束性を高める新しいクライアント選択方式を提案する。
論文 参考訳(メタデータ) (2023-12-16T10:35:06Z) - Federated Learning Under Restricted User Availability [3.0846824529023387]
ユーザの不均一な可用性や参加は、悪影響や環境のために避けられない。
本稿では,頻度の低いユーザや制限されたユーザによるデータへの制限的参加を効果的に捉え,緩和するFL問題の新たな定式化を提案する。
提案手法は, 標準FLと比較して, 性能が有意に向上したことを示す。
論文 参考訳(メタデータ) (2023-09-25T14:40:27Z) - Efficient Split-Mix Federated Learning for On-Demand and In-Situ
Customization [107.72786199113183]
フェデレートラーニング(FL)は、複数の参加者が生データを共有せずに学習をコラボレーションするための分散ラーニングフレームワークを提供する。
本稿では, モデルサイズとロバスト性をその場でカスタマイズできる, 不均一な参加者のための新しいスプリット・ミクス・FL戦略を提案する。
論文 参考訳(メタデータ) (2022-03-18T04:58:34Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Towards Understanding Quality Challenges of the Federated Learning: A
First Look from the Lens of Robustness [4.822471415125479]
Federated Learning(FL)は、すべての参加者のデータセット全体をトレーニングに活用しながら、ユーザのデータのプライバシを保護することを目的としている。
FLは依然として攻撃やビザンチン障害などの品質問題に悩まされる傾向にある。
本報告では,攻撃・故障発生におけるSOTA(State-of-the-art)の強靭なFL手法の有効性について検討する。
論文 参考訳(メタデータ) (2022-01-05T02:06:39Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - FedPrune: Towards Inclusive Federated Learning [1.308951527147782]
フェデレートラーニング(Federated Learning, FL)は、分散データの共有モデルをプライバシ保護形式でトレーニングする分散学習技術である。
我々は,この課題に対処するシステムであるFedPruneを提案する。
Central Limit Theoremからの洞察を利用することで、FedPruneは非IIDデータよりも堅牢なパフォーマンスを実現する新しい集約テクニックを取り入れている。
論文 参考訳(メタデータ) (2021-10-27T06:33:38Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。