論文の概要: Federated Recommendation with Additive Personalization
- arxiv url: http://arxiv.org/abs/2301.09109v3
- Date: Thu, 18 May 2023 02:29:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 20:11:04.663023
- Title: Federated Recommendation with Additive Personalization
- Title(参考訳): 追加パーソナライゼーションによるフェデレーション勧告
- Authors: Zhiwei Li, Guodong Long, Tianyi Zhou
- Abstract要約: 付加的パーソナライゼーション(FedRAP)を用いたフェデレーションレコメンデーションを提案する。
FedRAPは、FLを介してアイテムのグローバルなビューと、各ユーザのローカルなパーソナライズされたビューを学習する。
複数のベンチマークでFL設定で最高のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 44.33367659097946
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Building recommendation systems via federated learning (FL) is a new emerging
challenge for advancing next-generation Internet service and privacy
protection. Existing approaches train shared item embedding by FL while keeping
the user embedding private on client side. However, item embedding identical
for all clients cannot capture users' individual differences on perceiving the
same item and thus leads to poor personalization. Moreover, dense item
embedding in FL results in expensive communication cost and latency. To address
these challenges, we propose Federated Recommendation with Additive
Personalization (FedRAP), which learns a global view of items via FL and a
personalized view locally on each user. FedRAP enforces sparsity of the global
view to save FL's communication cost and encourages difference between the two
views through regularization. We propose an effective curriculum to learn the
local and global views progressively with increasing regularization weights. To
produce recommendations for an user, FedRAP adds the two views together to
obtain a personalized item embedding. FedRAP achieves the best performance in
FL setting on multiple benchmarks. It outperforms recent federated
recommendation methods and several ablation study baselines.
- Abstract(参考訳): フェデレーション学習(fl)によるレコメンデーションシステムの構築は、次世代のインターネットサービスとプライバシ保護を推進するための新たな課題である。
既存のアプローチは、ユーザがクライアント側にプライベートを埋め込みながら、FLによる共有アイテムの埋め込みを訓練する。
しかし、すべてのクライアントに同一のアイテムを埋め込むと、同一アイテムを知覚するユーザーの個人差が捉えられなくなり、パーソナライズが低下する。
さらに、FLに密接なアイテムを埋め込むと、通信コストとレイテンシが高くなる。
これらの課題に対処するために,fedrap(federated recommend with additive personalization)を提案する。これはflを通じてアイテムのグローバルビューと,ユーザ毎のパーソナライズビューをローカルに学習する。
fedrapは、flの通信コストを節約するためにグローバルビューのスパーシティを強制し、レギュライゼーションを通じて2つのビューの違いを奨励する。
正規化の重みを増すとともに,地域・グローバルな視点を段階的に学習するための効果的なカリキュラムを提案する。
ユーザのレコメンデーションを生成するために、feedrapは2つのビューを一緒に追加して、パーソナライズされたアイテム埋め込みを得る。
FedRAPは複数のベンチマークでFL設定で最高のパフォーマンスを達成する。
最近のフェデレーション推奨法やいくつかのアブレーション研究ベースラインを上回っている。
関連論文リスト
- Unlocking the Potential of Prompt-Tuning in Bridging Generalized and
Personalized Federated Learning [49.72857433721424]
Vision Transformer (ViT) と Visual Prompt Tuning (VPT) は、様々なコンピュータビジョンタスクの効率を改善して最先端のパフォーマンスを実現する。
本稿では,GFL(Generalized FL)とPFL(Personalized FL)を組み合わせた新しいアルゴリズムSGPTを提案する。
論文 参考訳(メタデータ) (2023-10-27T17:22:09Z) - FedJETs: Efficient Just-In-Time Personalization with Federated Mixture
of Experts [48.78037006856208]
FedJETsは、Federated Learning(FL)セットアップ内でMixture-of-Experts(MoE)フレームワークを使用することで、新しいソリューションである。
我々の方法は、クライアントの多様性を活用して、クラスのサブセットの異なる専門家を訓練し、最も関係のある専門家に入力をルーティングするゲーティング機能を提供します。
我々の手法は、競争力のあるゼロショット性能を維持しながら、アートFL設定時の精度を最大18%向上させることができる。
論文 参考訳(メタデータ) (2023-06-14T15:47:52Z) - User-Centric Federated Learning: Trading off Wireless Resources for
Personalization [18.38078866145659]
フェデレートラーニング(FL)システムでは、統計的不均一性はアルゴリズム収束時間を増やし、一般化性能を低下させる。
FLが課すプライバシー制約に違反することなく、上記の問題に対処するためには、パーソナライズされたFLメソッドは、データに直接アクセスすることなく、統計的に類似したクライアントを結合する必要がある。
本研究では,容易に利用できる勾配情報に基づいて,FLクライアント毎にパーソナライズされたモデルを生成可能なユーザ中心集約ルールを設計する。
提案アルゴリズムは,平均精度,ノード性能,通信オーバヘッドの訓練において,パーソナライズされたFLベースラインを上回っている。
論文 参考訳(メタデータ) (2023-04-25T15:45:37Z) - Federated Learning of Shareable Bases for Personalization-Friendly Image
Classification [54.72892987840267]
FedBasisは、いくつかの共有可能なベースモデルの集合を学習し、リニアに組み合わせて、クライアント用のパーソナライズされたモデルを形成することができる。
具体的には、新しいクライアントの場合、モデルの重みではなく、小さな組み合わせ係数のみを学ぶ必要がある。
また、FedBasisの有効性と適用性を示すために、画像分類のためのより実用的なPFLテストベッドを提案する。
論文 参考訳(メタデータ) (2023-04-16T20:19:18Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - PGFed: Personalize Each Client's Global Objective for Federated Learning [7.810284483002312]
本稿では,各クライアントが自身のグローバルな目的をパーソナライズ可能な,パーソナライズされたFLフレームワークを提案する。
大規模な(O(N2))通信オーバーヘッドと潜在的なプライバシリークを回避するため、各クライアントのリスクは、他のクライアントの適応的リスクアグリゲーションの1次近似によって推定される。
異なるフェデレーション条件下での4つのデータセットに対する実験により,従来の最先端手法よりも一貫したPGFの改良が示された。
論文 参考訳(メタデータ) (2022-12-02T21:16:39Z) - Group Personalized Federated Learning [15.09115201646396]
フェデレートラーニング(FL)は、クライアントの物理デバイス上で分散的な方法で共有モデルをトレーニングすることで、データのプライバシを促進するのに役立つ。
本稿では,FLの応用に向けたグループパーソナライズ手法を提案する。
論文 参考訳(メタデータ) (2022-10-04T19:20:19Z) - Improving Privacy-Preserving Vertical Federated Learning by Efficient Communication with ADMM [62.62684911017472]
フェデレートラーニング(FL)により、デバイスは共有モデルを共同でトレーニングし、トレーニングデータをプライバシ目的でローカルに保つことができる。
マルチヘッド(VIM)を備えたVFLフレームワークを導入し、各クライアントの別々のコントリビューションを考慮に入れます。
VIMは最先端技術に比べて性能が著しく向上し、収束が速い。
論文 参考訳(メタデータ) (2022-07-20T23:14:33Z) - Privacy Assessment of Federated Learning using Private Personalized
Layers [0.9023847175654603]
Federated Learning(FL)は、データを共有することなく、複数の参加者にまたがって学習モデルをトレーニングするコラボレーティブスキームである。
プライベートなパーソナライズされたレイヤを用いてFLスキームの実用性とプライバシのトレードオフを定量化する。
論文 参考訳(メタデータ) (2021-06-15T11:40:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。