論文の概要: FedEmbed: Personalized Private Federated Learning
- arxiv url: http://arxiv.org/abs/2202.09472v1
- Date: Fri, 18 Feb 2022 23:35:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 09:58:11.699148
- Title: FedEmbed: Personalized Private Federated Learning
- Title(参考訳): fedembed:パーソナライズされた個人フェデレーション学習
- Authors: Andrew Silva, Katherine Metcalf, Nicholas Apostoloff, Barry-John
Theobald
- Abstract要約: 我々は、グローバルなモデルをパーソナライズするための個人的フェデレーション学習の新しいアプローチであるFedEmbedを紹介する。
我々はFedEmbedが、個人化された個人的フェデレーション学習に対するベースラインアプローチよりも最大45%改善していることを示す。
- 参考スコア(独自算出の注目度): 13.356624498247069
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning enables the deployment of machine learning to problems for
which centralized data collection is impractical. Adding differential privacy
guarantees bounds on privacy while data are contributed to a global model.
Adding personalization to federated learning introduces new challenges as we
must account for preferences of individual users, where a data sample could
have conflicting labels because one sub-population of users might view an input
positively, but other sub-populations view the same input negatively. We
present FedEmbed, a new approach to private federated learning for
personalizing a global model that uses (1) sub-populations of similar users,
and (2) personal embeddings. We demonstrate that current approaches to
federated learning are inadequate for handling data with conflicting labels,
and we show that FedEmbed achieves up to 45% improvement over baseline
approaches to personalized private federated learning.
- Abstract(参考訳): 連合学習は、集中型データ収集が現実的でない問題への機械学習の展開を可能にする。
データがグローバルモデルにコントリビュートされている間、差分プライバシーを保証する。
フェデレーション学習にパーソナライズを加えることで、個々のユーザの好みを考慮しなくてはならない新しい課題がもたらされる。データサンプルは、あるサブ集団が肯定的に入力を見ることができるが、他のサブ集団は同じ入力を否定的に見るため、ラベルに矛盾する可能性がある。
本研究では,(1)類似ユーザのサブ人口と(2)個人埋め込みを用いたグローバルモデルのパーソナライズのための,プライベートフェデレーション学習への新たなアプローチであるfeedembedを提案する。
フェデレート学習への現在のアプローチは、競合するラベルによるデータ処理には不十分であることを示すとともに、FedEmbedがパーソナライズされた個人的フェデレーション学習に対するベースラインアプローチよりも最大45%改善していることを示す。
関連論文リスト
- Towards Split Learning-based Privacy-Preserving Record Linkage [49.1574468325115]
ユーザデータのプライバシが要求されるアプリケーションを容易にするために、Split Learningが導入されている。
本稿では,プライバシ保護記録マッチングのための分割学習の可能性について検討する。
論文 参考訳(メタデータ) (2024-09-02T09:17:05Z) - Addressing Skewed Heterogeneity via Federated Prototype Rectification with Personalization [35.48757125452761]
フェデレートラーニング(Federated Learning)は、複数の分散デバイス間の協調モデルトレーニングを容易にするために設計された、効率的なフレームワークである。
連合学習の重要な課題は、データレベルの不均一性、すなわち、スキュードまたはロングテールのプライベートデータの分散である。
本稿では,フェデレーション・パーソナライゼーションとフェデレーション・プロトタイプ・レクティフィケーションの2つの部分からなる新しいフェデレーション・プロトタイプ・レクティフィケーションを提案する。
論文 参考訳(メタデータ) (2024-08-15T06:26:46Z) - Personalized federated learning based on feature fusion [2.943623084019036]
フェデレートされた学習により、分散クライアントは、クライアントのプライバシを保護するためにデータをローカルに保存しながら、トレーニングで協力することができる。
pFedPMと呼ばれる個人化学習手法を提案する。
このプロセスでは、従来のグラデーションアップロードを機能アップロードに置き換え、通信コストを削減し、異種クライアントモデルを可能にする。
論文 参考訳(メタデータ) (2024-06-24T12:16:51Z) - Federated Learning Empowered by Generative Content [55.576885852501775]
フェデレートラーニング(FL)は、プライバシ保護方法でモデルのトレーニングに分散プライベートデータを活用可能にする。
本稿では,FedGCと呼ばれる新しいFLフレームワークを提案する。
我々は、さまざまなベースライン、データセット、シナリオ、モダリティをカバーする、FedGCに関する体系的な実証的研究を行う。
論文 参考訳(メタデータ) (2023-12-10T07:38:56Z) - Little is Enough: Improving Privacy by Sharing Labels in Federated Semi-Supervised Learning [10.972006295280636]
多くの重要なアプリケーションでは、機密データは本質的に分散しており、プライバシー上の懸念のために集中できない。
これらのアプローチのほとんどは、ローカルモデルパラメータ、パブリックデータセット上のソフト予測、あるいは両方の組み合わせを共有している。
しかし、これは依然としてプライベート情報を開示し、勾配ベースの手法でトレーニングを行う人たちにローカルモデルを制限している。
我々は、公開されていないデータセットでハードラベルのみを共有し、共有ラベルに関するコンセンサスを、クライアントが使用する擬似ラベルとして使用することを提案する。
論文 参考訳(メタデータ) (2023-10-09T13:16:10Z) - Incentivising the federation: gradient-based metrics for data selection and valuation in private decentralised training [15.233103072063951]
本研究では,個人トレーニングの参加者が共同学習モデルに最も有用なデータを選択するために,勾配情報を活用する方法について検討する。
これらの技術は、より厳密なプライバシー設定であっても、フェデレートされたクライアントに、原則化されたデータ選択のためのツールを提供することができることを示す。
論文 参考訳(メタデータ) (2023-05-04T15:44:56Z) - FedABC: Targeting Fair Competition in Personalized Federated Learning [76.9646903596757]
フェデレートラーニングは、クライアントのローカルプライベートデータにアクセスすることなく、モデルを協調的にトレーニングすることを目的としている。
我々はFedABCと呼ばれるバイナリ分類によるFederated Averagingと呼ばれる新規で汎用的なPFLフレームワークを提案する。
特に、各クライアントに1対1のトレーニング戦略を採用して、クラス間の不公平な競争を軽減する。
論文 参考訳(メタデータ) (2023-02-15T03:42:59Z) - FedPC: Federated Learning for Language Generation with Personal and
Context Preference Embeddings [10.235620939242505]
フェデレーション学習(Federated Learning)は、集中型サーバにデータを集約することなく、複数の分散ユーザから学習するトレーニングパラダイムである。
我々は,個人埋め込みと共有コンテキスト埋め込みの両面を活用した,フェデレートラーニングにおけるパーソナライズ研究の新しい方向性を提案する。
本稿では,これらの嗜好の埋め込みを予測し,バックプロパゲーションを伴わないパーソナライズを可能にするアプローチを提案する。
論文 参考訳(メタデータ) (2022-10-07T18:01:19Z) - Personalization Improves Privacy-Accuracy Tradeoffs in Federated
Optimization [57.98426940386627]
局所的な学習とプライベートな集中学習の協調は、総合的に有用であり、精度とプライバシのトレードオフを改善していることを示す。
合成および実世界のデータセットに関する実験により理論的結果について述べる。
論文 参考訳(メタデータ) (2022-02-10T20:44:44Z) - Federated Semi-Supervised Learning with Inter-Client Consistency &
Disjoint Learning [78.88007892742438]
ラベル付きデータの位置に基づくFSSL(Federated Semi-Supervised Learning)の2つの重要なシナリオについて検討する。
フェデレートマッチング(FedMatch)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-22T09:43:41Z) - Multi-Center Federated Learning [62.57229809407692]
本稿では,フェデレート学習のための新しい多中心集約機構を提案する。
非IIDユーザデータから複数のグローバルモデルを学び、同時にユーザとセンタ間の最適なマッチングを導出する。
ベンチマークデータセットによる実験結果から,本手法はいくつかの一般的なフェデレーション学習法より優れていることが示された。
論文 参考訳(メタデータ) (2020-05-03T09:14:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。