論文の概要: Certified Robustness in Federated Learning
- arxiv url: http://arxiv.org/abs/2206.02535v1
- Date: Mon, 6 Jun 2022 12:10:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 23:15:42.523280
- Title: Certified Robustness in Federated Learning
- Title(参考訳): 連合学習における認定ロバスト性
- Authors: Motasem Alfarra, Juan C. P\'erez, Egor Shulgin, Peter Richt\'arik,
Bernard Ghanem
- Abstract要約: 我々は,フェデレーショントレーニングとパーソナライゼーション,および認定ロバストネスの相互作用について検討した。
単純なフェデレーション平均化技術は, より正確であるだけでなく, より精度の高いロバストモデルの構築にも有効であることがわかった。
- 参考スコア(独自算出の注目度): 54.03574895808258
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning has recently gained significant attention and popularity
due to its effectiveness in training machine learning models on distributed
data privately. However, as in the single-node supervised learning setup,
models trained in federated learning suffer from vulnerability to imperceptible
input transformations known as adversarial attacks, questioning their
deployment in security-related applications. In this work, we study the
interplay between federated training, personalization, and certified
robustness. In particular, we deploy randomized smoothing, a widely-used and
scalable certification method, to certify deep networks trained on a federated
setup against input perturbations and transformations. We find that the simple
federated averaging technique is effective in building not only more accurate,
but also more certifiably-robust models, compared to training solely on local
data. We further analyze personalization, a popular technique in federated
training that increases the model's bias towards local data, on robustness. We
show several advantages of personalization over both~(that is, only training on
local data and federated training) in building more robust models with faster
training. Finally, we explore the robustness of mixtures of global and
local~(\ie personalized) models, and find that the robustness of local models
degrades as they diverge from the global model
- Abstract(参考訳): フェデレーション学習は、分散データ上でプライベートに機械学習モデルをトレーニングする効果があるため、最近大きな注目を集め、人気を集めている。
しかし、単一ノードの教師付き学習設定のように、連合学習で訓練されたモデルは、攻撃的攻撃として知られる不可避な入力変換への脆弱性に苦しめられ、セキュリティ関連のアプリケーションへのデプロイに疑問を投げかける。
本研究では,フェデレーショントレーニング,パーソナライゼーション,認定ロバストネスの相互作用について検討する。
特に,広義でスケーラブルな認証手法であるランダム化スムーシングを導入し,入力摂動や変換に対して,フェデレートされた設定でトレーニングされたディープネットワークを認証する。
単純なフェデレーション平均化手法は,局所データのみを対象とするトレーニングよりも,精度の高いモデルを構築する上で有効であることがわかった。
さらに,局所データに対するモデルのバイアスを強固性に高めるフェデレーショントレーニングにおける一般的な手法であるパーソナライゼーションについても分析した。
より高速なトレーニングでより堅牢なモデルを構築する上で、パーソナライズ(つまり、ローカルデータとフェデレーショントレーニングのみのトレーニング)のメリットがいくつか示されている。
最後に,グローバルモデルとローカルモデルの混合モデルのロバスト性を調査し,局所モデルのロバスト性がグローバルモデルから逸脱するにつれて劣化することを示す。
関連論文リスト
- Proximity-based Self-Federated Learning [1.0066310107046081]
本稿では,近接型自己フェデレーション学習という,新しい完全分散型フェデレーション学習戦略を提案する。
従来のアルゴリズムとは異なり、我々の手法は、地理的近接とモデル精度に基づいて、クライアントが近隣ノードとモデルを共有し、調整することを奨励する。
論文 参考訳(メタデータ) (2024-07-17T08:44:45Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Comparative assessment of federated and centralized machine learning [0.0]
Federated Learning(FL)は、デバイス間でフェデレーションされたデータによってトレーニングが行われる、プライバシ保護機械学習スキームである。
本稿では,非IID分散データの性質から,フェデレーション学習に影響を及ぼす諸要因について論じる。
トレーニング対象のモデルサイズが合理的に大きくない場合には,フェデレーション学習がコスト面で有利であることを示す。
論文 参考訳(メタデータ) (2022-02-03T11:20:47Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z) - Continual Local Training for Better Initialization of Federated Models [14.289213162030816]
フェデレートラーニング(Federated Learning、FL)とは、機械学習モデルを分散システムで直接訓練する学習パラダイムである。
一般的なFLアルゴリズムであるemphFederated Averaging (FedAvg)は重みのばらつきに悩まされている。
本稿では,この問題に対処するための局所的な継続的トレーニング戦略を提案する。
論文 参考訳(メタデータ) (2020-05-26T12:27:31Z) - Federated Residual Learning [53.77128418049985]
クライアントはローカルモデルを個別に訓練し、サーバ側で共有するモデルと共同で予測を行う。
この新しいフェデレートされた学習フレームワークを使用することで、統合トレーニングが提供するパフォーマンス上のメリットをすべて享受しながら、中央共有モデルの複雑さを最小限にすることができる。
論文 参考訳(メタデータ) (2020-03-28T19:55:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。