論文の概要: A Payload Optimization Method for Federated Recommender Systems
- arxiv url: http://arxiv.org/abs/2107.13078v1
- Date: Tue, 27 Jul 2021 20:44:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-29 14:06:13.556492
- Title: A Payload Optimization Method for Federated Recommender Systems
- Title(参考訳): フェデレーションレコメンダシステムの負荷最適化手法
- Authors: Farwa K. Khan, Adrian Flanagan, Kuan E. Tan, Zareen Alamgir, Muhammad
Ammad-Ud-Din
- Abstract要約: フェデレートされたレコメンデータシステム(FRS)のペイロード最適化手法を提案する。
グローバルモデルの一部を選択して全ユーザに送信するマルチアームバンディットソリューションを作成した。
提案手法は, モデルペイロードの90%削減を実現し, 高いスパースデータセットの推奨性能をわずかに$sim$4% - 8%の損失で達成した。
- 参考スコア(独自算出の注目度): 0.6212269948361799
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We introduce the payload optimization method for federated recommender
systems (FRS). In federated learning (FL), the global model payload that is
moved between the server and users depends on the number of items to recommend.
The model payload grows when there is an increasing number of items. This
becomes challenging for an FRS if it is running in production mode. To tackle
the payload challenge, we formulated a multi-arm bandit solution that selected
part of the global model and transmitted it to all users. The selection process
was guided by a novel reward function suitable for FL systems. So far as we are
aware, this is the first optimization method that seeks to address item
dependent payloads. The method was evaluated using three benchmark
recommendation datasets. The empirical validation confirmed that the proposed
method outperforms the simpler methods that do not benefit from the bandits for
the purpose of item selection. In addition, we have demonstrated the usefulness
of our proposed method by rigorously evaluating the effects of a payload
reduction on the recommendation performance degradation. Our method achieved up
to a 90\% reduction in model payload, yielding only a $\sim$4\% - 8\% loss in
the recommendation performance for highly sparse datasets
- Abstract(参考訳): フェデレートされたレコメンデータシステム(FRS)のペイロード最適化手法を提案する。
FL(Federated Learning)では,サーバとユーザの間で移動されるグローバルモデルペイロードは,推奨項目数に依存する。
モデルペイロードは、アイテムの数が増えると増加する。
これは、本番モードで実行されている場合、FRSでは困難になる。
ペイロードチャレンジに取り組むために、グローバルモデルの一部を選択し、すべてのユーザに送信するマルチアームバンディットソリューションを策定した。
選択過程はflシステムに適した新しい報酬関数によって導かれた。
私たちが知る限りでは、これはアイテム依存ペイロードに対処する最初の最適化手法です。
提案手法は3つのベンチマークレコメンデーションデータセットを用いて評価した。
実験により,提案手法は, アイテム選択のために, ビジットの恩恵を受けない簡易な手法よりも優れていることを確認した。
また,提案手法の有効性を,ペイロード削減が推奨性能劣化に与える影響を厳格に評価することで実証した。
提案手法は, モデルペイロードの最大90%の削減を実現し, 高精度データセットの推薦性能を$\sim$4\% - 8\%の損失しか得られなかった。
関連論文リスト
- Improving Reinforcement Learning from Human Feedback with Efficient
Reward Model Ensemble [71.44669705576263]
人間のフィードバックからの強化学習(Reinforcement Learning from Human Feedback, RLHF)は、大きな言語モデルと人間の価値を整合させる手法として広く採用されている。
しかし、RLHFは限られた量の人間の嗜好データで訓練された報酬モデルに依存している。
報奨モデルによりより正確な予測が可能となる報奨アンサンブル法を提案する。
論文 参考訳(メタデータ) (2024-01-30T00:17:37Z) - Federated Learning of Large Language Models with Parameter-Efficient
Prompt Tuning and Adaptive Optimization [71.87335804334616]
フェデレートラーニング(FL)は、分散データとの協調モデルトレーニングを可能にする、有望なパラダイムである。
LLM(Large Language Models)のトレーニングプロセスは一般的に重要なパラメータの更新を引き起こす。
本稿では,性能と効率を同時に向上する効率的な部分的プロンプトチューニング手法を提案する。
論文 参考訳(メタデータ) (2023-10-23T16:37:59Z) - A Scalable Probabilistic Model for Reward Optimizing Slate
Recommendation [9.104884285248115]
本稿では,パーソナライズされたスレートレコメンデーションのためのスケーラブルな確率モデルであるPRR(Probabilistic Rank and Reward model)を紹介する。
本手法は,報酬のみを使用するバンディット法や,ランクのみを使用するユーザの選好法よりも効率よく学習する。
提案手法は,最大100万項目の大規模データセット上での速度と精度の両面での最先端技術である。
論文 参考訳(メタデータ) (2022-08-10T13:18:00Z) - Generating Negative Samples for Sequential Recommendation [83.60655196391855]
逐次レコメンデーション(SR)のための負のサンプル(イテム)を生成することを提案する。
アイテムに対する現在のSRモデルの学習されたユーザの好みに基づいて、各タイムステップで負の項目をサンプリングする。
4つの公開データセットの実験は、SRに高品質な負のサンプルを提供することの重要性を検証する。
論文 参考訳(メタデータ) (2022-08-07T05:44:13Z) - Recommendation Systems with Distribution-Free Reliability Guarantees [83.80644194980042]
我々は、主に良いアイテムを含むことを厳格に保証されたアイテムのセットを返す方法を示す。
本手法は, 擬似発見率の厳密な有限サンプル制御によるランキングモデルを提供する。
我々はYahoo!のランキングとMSMarcoデータセットの学習方法を評価する。
論文 参考訳(メタデータ) (2022-07-04T17:49:25Z) - Reward Uncertainty for Exploration in Preference-based Reinforcement
Learning [88.34958680436552]
好みに基づく強化学習アルゴリズムを対象とした探索手法を提案する。
我々の基本的な考え方は、学習した報酬に基づいて、斬新さを測定することによって、本質的な報酬を設計することである。
実験により、学習報酬の不確実性からの探索ボーナスは、好みに基づくRLアルゴリズムのフィードバック効率とサンプル効率の両方を改善することが示された。
論文 参考訳(メタデータ) (2022-05-24T23:22:10Z) - GHRS: Graph-based Hybrid Recommendation System with Application to Movie
Recommendation [0.0]
本稿では,ユーザのレーティングの類似性に関連するグラフベースモデルを用いたレコメンデータシステムを提案する。
オートエンコーダの特徴抽出の利点を生かして,全ての属性を組み合わせて新しい特徴を抽出する。
The experimental results on the MovieLens dataset shows that the proposed algorithm developed many existing recommendation algorithm on recommendation accuracy。
論文 参考訳(メタデータ) (2021-11-06T10:47:45Z) - DORB: Dynamically Optimizing Multiple Rewards with Bandits [101.68525259222164]
政策に基づく強化学習は、言語生成タスクにおいて、微分不可能な評価指標を最適化するための有望なアプローチであることが証明されている。
We use the Exp3 algorithm for bandit and formulate two approach for bandit rewards: (1) Single Multi-reward Bandit (SM-Bandit), (2) Hierarchical Multi-reward Bandit (HM-Bandit)
我々は,2つの重要なNLGタスクにおいて,様々な自動計測と人的評価を通じて,我々のアプローチの有効性を実証的に示す。
論文 参考訳(メタデータ) (2020-11-15T21:57:47Z) - Sample-Rank: Weak Multi-Objective Recommendations Using Rejection
Sampling [0.5156484100374059]
本稿では,マルチゴールサンプリングとユーザ関連度(Sample-Rank)のランク付けによるマーケットプレースの多目的目標への推薦手法を提案する。
提案手法の新規性は,望まれるマルチゴール分布からサンプリングするMOレコメンデーション問題を低減し,プロダクションフレンドリーな学習-ランクモデルを構築することである。
論文 参考訳(メタデータ) (2020-08-24T09:17:18Z) - Data-driven Optimal Power Flow: A Physics-Informed Machine Learning
Approach [6.5382276424254995]
本稿では,SELMフレームワークに基づく最適電力フロー(OPF)のためのデータ駆動型アプローチを提案する。
データ駆動型OPF回帰フレームワークが開発され、OPFモデルの特徴を3段階に分解する。
IEEEおよびポーランドのベンチマークシステムにおいて,提案手法が他の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-05-31T15:41:24Z) - RNE: A Scalable Network Embedding for Billion-scale Recommendation [21.6366085346674]
データ効率のよいレコメンデーションベースのネットワーク埋め込み手法であるRNEを提案し、ユーザに対してパーソナライズされた多様なアイテムを提供する。
一方,提案手法は,ユーザの関心の多様性と動的特性をモデル化し,推薦品質を高めるとともに,ユーザとアイテム間の局所的な構造を維持できる。
当社は、中国最大のEコマースプラットフォームであるTaobaoのレコメンデーションシナリオにRNEをデプロイし、それを10億規模のユーザテムグラフでトレーニングしています。
論文 参考訳(メタデータ) (2020-03-10T07:08:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。