論文の概要: Loosely Coupled Federated Learning Over Generative Models
- arxiv url: http://arxiv.org/abs/2009.12999v1
- Date: Mon, 28 Sep 2020 01:09:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 21:21:55.630544
- Title: Loosely Coupled Federated Learning Over Generative Models
- Title(参考訳): 生成モデルに疎結合なフェデレーション学習
- Authors: Shaoming Song, Yunfeng Shao, Jian Li
- Abstract要約: プライベートデータをアップロードすることなく、さまざまなクライアント間で協調的な機械学習を実現するために、フェデレートラーニング(FL)が提案された。
本稿では,低通信コストと不均一なフェデレーション学習を実現するために,Losely Coupled Federated Learning (LC-FL)を提案する。
- 参考スコア(独自算出の注目度): 6.472716351335859
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) was proposed to achieve collaborative machine
learning among various clients without uploading private data. However, due to
model aggregation strategies, existing frameworks require strict model
homogeneity, limiting the application in more complicated scenarios. Besides,
the communication cost of FL's model and gradient transmission is extremely
high. This paper proposes Loosely Coupled Federated Learning (LC-FL), a
framework using generative models as transmission media to achieve low
communication cost and heterogeneous federated learning. LC-FL can be applied
on scenarios where clients possess different kinds of machine learning models.
Experiments on real-world datasets covering different multiparty scenarios
demonstrate the effectiveness of our proposal.
- Abstract(参考訳): プライベートデータをアップロードすることなく、さまざまなクライアント間で協調的な機械学習を実現するために、フェデレートラーニング(FL)が提案された。
しかし、モデル集約戦略のため、既存のフレームワークは厳密なモデル均質性を必要とし、より複雑なシナリオでアプリケーションを制限する。
また,FLモデルと勾配伝送の通信コストが非常に高い。
本稿では,送信媒体として生成モデルを用いた疎結合型フェデレート学習(lc-fl)を提案し,低通信コストとヘテロジニアスフェデレート学習を実現する。
LC-FLは、クライアントが異なる種類の機械学習モデルを持っているシナリオに適用できる。
異なるマルチパーティシナリオをカバーする実世界のデータセットに関する実験により,提案の有効性が示された。
関連論文リスト
- LanFL: Differentially Private Federated Learning with Large Language Models using Synthetic Samples [11.955062839855334]
Federated Learning(FL)は、協調的なプライバシ保護機械学習フレームワークである。
数十億から数十億のパラメータを持つ最近の強力な大規模言語モデル(LLM)の出現は、従来のFLメソッドの単純な適用を非現実的にしている。
本稿では,LanFL という新しい LLM スキームを紹介し,LanFL は純粋にプロンプトベースであり,基礎となる LLM をブラックボックスとして扱う。
論文 参考訳(メタデータ) (2024-10-24T19:28:33Z) - FedPAE: Peer-Adaptive Ensemble Learning for Asynchronous and Model-Heterogeneous Federated Learning [9.084674176224109]
フェデレートラーニング(FL)は、分散データソースを持つ複数のクライアントが、データのプライバシを損なうことなく、共同で共有モデルをトレーニングすることを可能にする。
我々は、モデルの不均一性と非同期学習をサポートする完全分散pFLアルゴリズムであるFederated Peer-Adaptive Ensemble Learning (FedPAE)を紹介する。
提案手法では,ピアツーピアモデル共有機構とアンサンブル選択を用いて,局所情報とグローバル情報とのより洗練されたバランスを実現する。
論文 参考訳(メタデータ) (2024-10-17T22:47:19Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - PFL-GAN: When Client Heterogeneity Meets Generative Models in
Personalized Federated Learning [55.930403371398114]
パーソナライズドラーニング(PFL)のための新しいGAN(Generative Adversarial Network)の共有と集約戦略を提案する。
PFL-GANは、異なるシナリオにおけるクライアントの不均一性に対処する。より具体的には、まずクライアント間の類似性を学び、次に重み付けされた協調データアグリゲーションを開発する。
いくつかのよく知られたデータセットに対する厳密な実験による実験結果は、PFL-GANの有効性を示している。
論文 参考訳(メタデータ) (2023-08-23T22:38:35Z) - Tensor Decomposition based Personalized Federated Learning [12.420951968273574]
Federated Learning(FL)は、ユーザのプライベートデータを収集することなく、確実に協調的なトレーニングを実現する、新しい分散機械学習フレームワークである。
FLの頻繁なコミュニケーションと平均集約戦略により、統計多様性データや大規模モデルへのスケーリングが困難になる。
本稿では,分解に基づくパーソナライズドラーニング(TDPFed)と呼ばれるFLフレームワークを提案する。このフレームワークでは,テンソル化線形層と畳み込み層を持つ新しいテンソル化局所モデルを設計し,通信コストを削減する。
論文 参考訳(メタデータ) (2022-08-27T08:09:14Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Efficient Split-Mix Federated Learning for On-Demand and In-Situ
Customization [107.72786199113183]
フェデレートラーニング(FL)は、複数の参加者が生データを共有せずに学習をコラボレーションするための分散ラーニングフレームワークを提供する。
本稿では, モデルサイズとロバスト性をその場でカスタマイズできる, 不均一な参加者のための新しいスプリット・ミクス・FL戦略を提案する。
論文 参考訳(メタデータ) (2022-03-18T04:58:34Z) - FedHM: Efficient Federated Learning for Heterogeneous Models via
Low-rank Factorization [16.704006420306353]
スケーラブルなフェデレート学習フレームワークは、異なる計算能力と通信能力を備えた異種クライアントに対処する必要がある。
本稿では,不均一な低ランクモデルをクライアントに分散し,それらをグローバルなフルランクモデルに集約する,新しいフェデレーションモデル圧縮フレームワークであるFedHMを提案する。
我々のソリューションは、計算複雑性の異なる異種局所モデルの訓練を可能にし、単一の大域的モデルを集約する。
論文 参考訳(メタデータ) (2021-11-29T16:11:09Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z) - HeteroFL: Computation and Communication Efficient Federated Learning for
Heterogeneous Clients [42.365530133003816]
我々は,全く異なる計算能力と通信能力を備えた異種クライアントに対応するために,HeteroFLという新しいフェデレーション学習フレームワークを提案する。
我々の解は、様々な複雑さを持つ異種局所モデルの訓練を可能にする。
クライアントの能力に応じてデータを適応的に分散することは、計算と通信の効率が良いことを示す。
論文 参考訳(メタデータ) (2020-10-03T02:55:33Z) - Ensemble Distillation for Robust Model Fusion in Federated Learning [72.61259487233214]
Federated Learning(FL)は、多くのデバイスが機械学習モデルを協調的にトレーニングする機械学習環境である。
現在のトレーニングスキームのほとんどでは、サーバモデルのパラメータと更新されたパラメータをクライアント側から平均化することで、中央モデルを洗練します。
本研究では,モデル融合のためのアンサンブル蒸留法を提案する。
論文 参考訳(メタデータ) (2020-06-12T14:49:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。