論文の概要: WAFFLe: Weight Anonymized Factorization for Federated Learning
- arxiv url: http://arxiv.org/abs/2008.05687v1
- Date: Thu, 13 Aug 2020 04:26:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-30 22:38:36.900318
- Title: WAFFLe: Weight Anonymized Factorization for Federated Learning
- Title(参考訳): WAFFLe:フェデレートラーニングのための軽量匿名化
- Authors: Weituo Hao, Nikhil Mehta, Kevin J Liang, Pengyu Cheng, Mostafa
El-Khamy, Lawrence Carin
- Abstract要約: データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
- 参考スコア(独自算出の注目度): 88.44939168851721
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In domains where data are sensitive or private, there is great value in
methods that can learn in a distributed manner without the data ever leaving
the local devices. In light of this need, federated learning has emerged as a
popular training paradigm. However, many federated learning approaches trade
transmitting data for communicating updated weight parameters for each local
device. Therefore, a successful breach that would have otherwise directly
compromised the data instead grants whitebox access to the local model, which
opens the door to a number of attacks, including exposing the very data
federated learning seeks to protect. Additionally, in distributed scenarios,
individual client devices commonly exhibit high statistical heterogeneity. Many
common federated approaches learn a single global model; while this may do well
on average, performance degrades when the i.i.d. assumption is violated,
underfitting individuals further from the mean, and raising questions of
fairness. To address these issues, we propose Weight Anonymized Factorization
for Federated Learning (WAFFLe), an approach that combines the Indian Buffet
Process with a shared dictionary of weight factors for neural networks.
Experiments on MNIST, FashionMNIST, and CIFAR-10 demonstrate WAFFLe's
significant improvement to local test performance and fairness while
simultaneously providing an extra layer of security.
- Abstract(参考訳): データが機密性またはプライベートなドメインでは、データがローカルデバイスを離れることなく分散的に学習できるメソッドには大きな価値があります。
このようなニーズを踏まえて、連合学習は一般的なトレーニングパラダイムとして現れています。
しかし、多くのフェデレート学習は、各ローカルデバイスに対して更新された重みパラメータを通信するための送信データを交換するアプローチである。
それゆえ、データに直接違反する可能性のある侵入が成功したことにより、ホワイトボックスはローカルモデルへのアクセスを許可され、保護しようとするデータフェデレーション学習の公開など、多くの攻撃の扉を開くことになる。
さらに、分散シナリオでは、個々のクライアントデバイスは一般に高い統計的不均一性を示す。
多くの一般的な連合的アプローチは単一のグローバルモデルを学ぶが、これは平均的にはうまく機能するが、i.d.仮定に違反すると性能は低下し、平均から個人を過小評価し、公平性の疑問を提起する。
これらの問題に対処するために,我々は,インドビュッフェ過程とニューラルネットワークの重み係数の共有辞書を組み合わせたアプローチであるフェデレーション学習(waffle)のための重み匿名化を提案する。
MNIST、FashionMNIST、CIFAR-10の実験では、WAFFLeが局所的なテスト性能と公平性を向上し、同時に追加のセキュリティ層を提供することを示した。
関連論文リスト
- Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - FedLPA: One-shot Federated Learning with Layer-Wise Posterior Aggregation [7.052566906745796]
FedLPAは、フェデレートラーニングのための階層的な後続アグリゲーション手法である。
以上の結果から,FedLPAは最先端の手法よりも学習性能を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-09-30T10:51:27Z) - Towards Unbiased Training in Federated Open-world Semi-supervised
Learning [15.08153616709326]
本稿では,分散およびオープンな環境における重要な課題を解決するための,新しいフェデレートオープンワールドセミスーパーバイドラーニング(FedoSSL)フレームワークを提案する。
我々は,不確実性に留意された損失を抑えることで,局所的に見えないクラスとグローバルな見えないクラスの間のバイアスのあるトレーニングを緩和する。
提案したFedoSSLは、ベンチマークや実世界のデータセットに関する広範な実験を通じて検証される、最先端のFLメソッドに容易に適用することができる。
論文 参考訳(メタデータ) (2023-05-01T11:12:37Z) - Benchmarking FedAvg and FedCurv for Image Classification Tasks [1.376408511310322]
本稿では,同じフェデレーションネットワークにおけるデータの統計的不均一性の問題に焦点をあてる。
FedAvg、FedProx、Federated Curvature(FedCurv)など、いくつかのフェデレートラーニングアルゴリズムがすでに提案されている。
この研究の副産物として、FLコミュニティからのさらなる比較を容易にするために使用したデータセットの非IIDバージョンをリリースします。
論文 参考訳(メタデータ) (2023-03-31T10:13:01Z) - FedDRL: Deep Reinforcement Learning-based Adaptive Aggregation for
Non-IID Data in Federated Learning [4.02923738318937]
異なるエッジデバイス(クライアント)にまたがるローカルデータの不均一な分散は、フェデレート学習における遅いモデルトレーニングと精度の低下をもたらす。
この研究は、実世界のデータセット、すなわちクラスタスキューで発生する新しい非IID型を導入している。
我々は,各クライアントのインパクト要因を適応的に決定するために,深層強化学習を用いた新しいFLモデルであるFedDRLを提案する。
論文 参考訳(メタデータ) (2022-08-04T04:24:16Z) - Certified Robustness in Federated Learning [54.03574895808258]
我々は,フェデレーショントレーニングとパーソナライゼーション,および認定ロバストネスの相互作用について検討した。
単純なフェデレーション平均化技術は, より正確であるだけでなく, より精度の高いロバストモデルの構築にも有効であることがわかった。
論文 参考訳(メタデータ) (2022-06-06T12:10:53Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Auto-weighted Robust Federated Learning with Corrupted Data Sources [7.475348174281237]
フェデレーション学習はコミュニケーション効率とプライバシ保護のトレーニングプロセスを提供する。
平均損失関数をナイーブに最小化する標準的なフェデレーション学習技術は、データの破損に弱い。
破損したデータソースに対して堅牢性を提供するために、自動重み付けロバストフェデレーテッドラーニング(arfl)を提案します。
論文 参考訳(メタデータ) (2021-01-14T21:54:55Z) - Multi-Center Federated Learning [62.57229809407692]
本稿では,フェデレート学習のための新しい多中心集約機構を提案する。
非IIDユーザデータから複数のグローバルモデルを学び、同時にユーザとセンタ間の最適なマッチングを導出する。
ベンチマークデータセットによる実験結果から,本手法はいくつかの一般的なフェデレーション学習法より優れていることが示された。
論文 参考訳(メタデータ) (2020-05-03T09:14:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。