論文の概要: Think Locally, Act Globally: Federated Learning with Local and Global
Representations
- arxiv url: http://arxiv.org/abs/2001.01523v3
- Date: Tue, 14 Jul 2020 08:12:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-14 02:08:44.346900
- Title: Think Locally, Act Globally: Federated Learning with Local and Global
Representations
- Title(参考訳): ローカルに考える、グローバルに行動する - ローカルとグローバル表現による連合学習
- Authors: Paul Pu Liang, Terrance Liu, Liu Ziyin, Nicholas B. Allen, Randy P.
Auerbach, David Brent, Ruslan Salakhutdinov, Louis-Philippe Morency
- Abstract要約: フェデレートラーニング(Federated Learning)とは、複数のデバイスに分散したプライベートデータ上でモデルをトレーニングする手法である。
本稿では,各デバイス上でコンパクトな局所表現を共同で学習する新しいフェデレーション学習アルゴリズムを提案する。
また、プライバシが鍵となる実世界のモバイルデータから、パーソナライズされた気分予測のタスクを評価する。
- 参考スコア(独自算出の注目度): 92.68484710504666
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning is a method of training models on private data distributed
over multiple devices. To keep device data private, the global model is trained
by only communicating parameters and updates which poses scalability challenges
for large models. To this end, we propose a new federated learning algorithm
that jointly learns compact local representations on each device and a global
model across all devices. As a result, the global model can be smaller since it
only operates on local representations, reducing the number of communicated
parameters. Theoretically, we provide a generalization analysis which shows
that a combination of local and global models reduces both variance in the data
as well as variance across device distributions. Empirically, we demonstrate
that local models enable communication-efficient training while retaining
performance. We also evaluate on the task of personalized mood prediction from
real-world mobile data where privacy is key. Finally, local models handle
heterogeneous data from new devices, and learn fair representations that
obfuscate protected attributes such as race, age, and gender.
- Abstract(参考訳): フェデレートラーニング(Federated Learning)とは、複数のデバイスに分散したプライベートデータをトレーニングする手法である。
デバイスのデータをプライベートに保つため、グローバルモデルはパラメータとアップデートを通信するだけでトレーニングされる。
そこで本研究では,各デバイス上のコンパクトな局所表現と,全デバイスにまたがるグローバルモデルを同時に学習する,新しいフェデレーション学習アルゴリズムを提案する。
その結果、グローバルモデルは局所表現のみで動作するため、より小さくなり、通信されるパラメータの数を減らすことができる。
理論的には, 局所モデルと大域モデルの組み合わせにより, デバイス分布のばらつきだけでなく, データのばらつきも減少することを示す一般化解析を行う。
実演的に、我々はローカルモデルが性能を維持しながらコミュニケーション効率の高い訓練を可能にすることを示した。
また、プライバシーが重要な現実世界のモバイルデータから個人化された気分予測のタスクを評価する。
最後に、ローカルモデルは、新しいデバイスからの異種データを処理し、人種、年齢、性別などの保護された属性を隠蔽する公平な表現を学ぶ。
関連論文リスト
- FedDistill: Global Model Distillation for Local Model De-Biasing in Non-IID Federated Learning [10.641875933652647]
フェデレートラーニング(FL)は、協調機械学習を可能にする新しいアプローチである。
FLは、クライアント間で均一に分散されていない(非ID)データのために、課題に直面します。
本稿では,グローバルモデルからローカルモデルへの知識伝達を促進するフレームワークであるFedDistillを紹介する。
論文 参考訳(メタデータ) (2024-04-14T10:23:30Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - FedSoup: Improving Generalization and Personalization in Federated
Learning via Selective Model Interpolation [32.36334319329364]
クロスサイロフェデレーション学習(FL)は、データセンタに分散したデータセット上での機械学習モデルの開発を可能にする。
近年の研究では、現在のFLアルゴリズムは、分布シフトに直面した場合、局所的な性能とグローバルな性能のトレードオフに直面している。
地域とグローバルのパフォーマンスのトレードオフを最適化する新しいフェデレーションモデルスープ手法を提案する。
論文 参考訳(メタデータ) (2023-07-20T00:07:29Z) - Federated Learning of Models Pre-Trained on Different Features with
Consensus Graphs [19.130197923214123]
プライベートデータセットと分散データセットで効果的なグローバルモデルを学ぶことは、機械学習においてますます重要な課題になりつつある。
本稿では,局所モデルから局所表現を抽出し,それらをグローバル表現に組み込んで予測性能を向上させる特徴融合手法を提案する。
本稿では,これらの問題に対する解決策を提示し,電力網や交通網などの時系列データを用いた実世界の応用例を示す。
論文 参考訳(メタデータ) (2023-06-02T02:24:27Z) - Integrating Local Real Data with Global Gradient Prototypes for
Classifier Re-Balancing in Federated Long-Tailed Learning [60.41501515192088]
フェデレートラーニング(FL)は、グローバルモデルを協調的にトレーニングする複数のクライアントを含む、人気のある分散ラーニングパラダイムになっています。
データサンプルは通常、現実世界の長い尾の分布に従っており、分散化された長い尾のデータのFLは、貧弱なグローバルモデルをもたらす。
本研究では、局所的な実データとグローバルな勾配のプロトタイプを統合し、局所的なバランスの取れたデータセットを形成する。
論文 参考訳(メタデータ) (2023-01-25T03:18:10Z) - Tackling Data Heterogeneity in Federated Learning with Class Prototypes [44.746340839025194]
パーソナライズと一般化の両面において,ローカルモデルの性能を改善する新しい手法であるFedNHを提案する。
クラスセマンティクスを注入することで局所モデルを改善する一方で,一様性を付与することでプロトタイプの崩壊に対処できることを示す。
論文 参考訳(メタデータ) (2022-12-06T05:15:38Z) - Federated Learning from Small Datasets [48.879172201462445]
フェデレーション学習は、複数のパーティが、ローカルデータを共有せずに、共同モデルを共同でトレーニングすることを可能にする。
そこで本研究では,局所モデルの置換とモデルアグリゲーションを連動させる新しい手法を提案する。
置換は、各ローカルモデルをローカルデータセットのデージーチェーンに公開することで、データスパースドメインでのより効率的なトレーニングを実現する。
論文 参考訳(メタデータ) (2021-10-07T13:49:23Z) - Federated Learning with Downlink Device Selection [92.14944020945846]
我々は,無線ネットワークのエッジにおいて,プライバシーに敏感なデータを用いてグローバルモデルを協調訓練するフェデレーションエッジ学習について検討した。
パラメータサーバ(PS)は、グローバルモデルを追跡し、無線エッジデバイスと共有して、プライベートローカルデータを使用したトレーニングを行う。
デバイス選択は、PSがデバイスとグローバルモデルを共有するダウンリンクチャネルに基づいて検討する。
論文 参考訳(メタデータ) (2021-07-07T22:42:39Z) - Federated Learning With Quantized Global Model Updates [84.55126371346452]
モバイル端末がローカルデータセットを使用してグローバルモデルをトレーニングできるフェデレーション学習について検討する。
本稿では,大域的モデルと局所的モデル更新の両方を,送信前に量子化する損失FL(LFL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-18T16:55:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。