論文の概要: A Payload Optimization Method for Federated Recommender Systems
- arxiv url: http://arxiv.org/abs/2107.13078v1
- Date: Tue, 27 Jul 2021 20:44:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-29 14:06:13.556492
- Title: A Payload Optimization Method for Federated Recommender Systems
- Title(参考訳): フェデレーションレコメンダシステムの負荷最適化手法
- Authors: Farwa K. Khan, Adrian Flanagan, Kuan E. Tan, Zareen Alamgir, Muhammad
Ammad-Ud-Din
- Abstract要約: フェデレートされたレコメンデータシステム(FRS)のペイロード最適化手法を提案する。
グローバルモデルの一部を選択して全ユーザに送信するマルチアームバンディットソリューションを作成した。
提案手法は, モデルペイロードの90%削減を実現し, 高いスパースデータセットの推奨性能をわずかに$sim$4% - 8%の損失で達成した。
- 参考スコア(独自算出の注目度): 0.6212269948361799
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We introduce the payload optimization method for federated recommender
systems (FRS). In federated learning (FL), the global model payload that is
moved between the server and users depends on the number of items to recommend.
The model payload grows when there is an increasing number of items. This
becomes challenging for an FRS if it is running in production mode. To tackle
the payload challenge, we formulated a multi-arm bandit solution that selected
part of the global model and transmitted it to all users. The selection process
was guided by a novel reward function suitable for FL systems. So far as we are
aware, this is the first optimization method that seeks to address item
dependent payloads. The method was evaluated using three benchmark
recommendation datasets. The empirical validation confirmed that the proposed
method outperforms the simpler methods that do not benefit from the bandits for
the purpose of item selection. In addition, we have demonstrated the usefulness
of our proposed method by rigorously evaluating the effects of a payload
reduction on the recommendation performance degradation. Our method achieved up
to a 90\% reduction in model payload, yielding only a $\sim$4\% - 8\% loss in
the recommendation performance for highly sparse datasets
- Abstract(参考訳): フェデレートされたレコメンデータシステム(FRS)のペイロード最適化手法を提案する。
FL(Federated Learning)では,サーバとユーザの間で移動されるグローバルモデルペイロードは,推奨項目数に依存する。
モデルペイロードは、アイテムの数が増えると増加する。
これは、本番モードで実行されている場合、FRSでは困難になる。
ペイロードチャレンジに取り組むために、グローバルモデルの一部を選択し、すべてのユーザに送信するマルチアームバンディットソリューションを策定した。
選択過程はflシステムに適した新しい報酬関数によって導かれた。
私たちが知る限りでは、これはアイテム依存ペイロードに対処する最初の最適化手法です。
提案手法は3つのベンチマークレコメンデーションデータセットを用いて評価した。
実験により,提案手法は, アイテム選択のために, ビジットの恩恵を受けない簡易な手法よりも優れていることを確認した。
また,提案手法の有効性を,ペイロード削減が推奨性能劣化に与える影響を厳格に評価することで実証した。
提案手法は, モデルペイロードの最大90%の削減を実現し, 高精度データセットの推薦性能を$\sim$4\% - 8\%の損失しか得られなかった。
関連論文リスト
- Efficient and Robust Regularized Federated Recommendation [52.24782464815489]
推薦システム(RSRS)は、ユーザの好みとプライバシの両方に対処する。
通信効率を向上させるために,非一様勾配勾配勾配を取り入れた新しい手法を提案する。
RFRecFの強靭性は、多様なベースラインに比べて優れている。
論文 参考訳(メタデータ) (2024-11-03T12:10:20Z) - Hybrid Preferences: Learning to Route Instances for Human vs. AI Feedback [87.37721254914476]
アノテーションの品質向上のために,人間とLMの入力を組み合わせたルーティングフレームワークを提案する。
我々は、人間とLMアノテーションの任意の組み合わせで報酬モデルの性能を予測するために、性能予測モデルを訓練する。
選択したハイブリッド混合物は,一方のみ使用した場合と比較して,報奨モデルの性能が向上することを示す。
論文 参考訳(メタデータ) (2024-10-24T20:04:15Z) - Optimal Design for Reward Modeling in RLHF [83.3614658277817]
我々は,人間からの強化学習における報酬訓練モデルを定式化する。
有効なデータセットの選択は、単純な後悔の最小化タスクとしてフレーム化します。
適切な前提の下では、単純な後悔に縛られる。
論文 参考訳(メタデータ) (2024-10-22T14:36:44Z) - Adaptive Preference Scaling for Reinforcement Learning with Human Feedback [103.36048042664768]
人間からのフィードバックからの強化学習(RLHF)は、AIシステムと人間の価値を合わせるための一般的なアプローチである。
本稿では,分散ロバスト最適化(DRO)に基づく適応的優先損失を提案する。
提案手法は多用途であり,様々な選好最適化フレームワークに容易に適用可能である。
論文 参考訳(メタデータ) (2024-06-04T20:33:22Z) - CF Recommender System Based on Ontology and Nonnegative Matrix Factorization (NMF) [0.0]
この作業は、レコメンダシステムのデータ空間と精度の問題に対処する。
実装されたアプローチは、CF提案の空白度を効果的に削減し、その正確性を改善し、より関連性の高い項目を推奨する。
論文 参考訳(メタデータ) (2024-05-31T14:50:53Z) - Fine-Tuning Language Models with Reward Learning on Policy [68.70065254564642]
人間からのフィードバックからの強化学習(RLHF)は、大きな言語モデル(LLM)を人間の好みに合わせる効果的なアプローチとして現れている。
その人気にもかかわらず、(固定された)報酬モデルが不正確な流通に悩まされることがある。
本稿では、政策サンプルを用いて報酬モデルを洗練し、流通を継続する、教師なしのフレームワークであるポリシーに関する報酬学習(RLP)を提案する。
論文 参考訳(メタデータ) (2024-03-28T10:02:10Z) - Recommendation Systems with Distribution-Free Reliability Guarantees [83.80644194980042]
我々は、主に良いアイテムを含むことを厳格に保証されたアイテムのセットを返す方法を示す。
本手法は, 擬似発見率の厳密な有限サンプル制御によるランキングモデルを提供する。
我々はYahoo!のランキングとMSMarcoデータセットの学習方法を評価する。
論文 参考訳(メタデータ) (2022-07-04T17:49:25Z) - GHRS: Graph-based Hybrid Recommendation System with Application to Movie
Recommendation [0.0]
本稿では,ユーザのレーティングの類似性に関連するグラフベースモデルを用いたレコメンデータシステムを提案する。
オートエンコーダの特徴抽出の利点を生かして,全ての属性を組み合わせて新しい特徴を抽出する。
The experimental results on the MovieLens dataset shows that the proposed algorithm developed many existing recommendation algorithm on recommendation accuracy。
論文 参考訳(メタデータ) (2021-11-06T10:47:45Z) - Sample-Rank: Weak Multi-Objective Recommendations Using Rejection
Sampling [0.5156484100374059]
本稿では,マルチゴールサンプリングとユーザ関連度(Sample-Rank)のランク付けによるマーケットプレースの多目的目標への推薦手法を提案する。
提案手法の新規性は,望まれるマルチゴール分布からサンプリングするMOレコメンデーション問題を低減し,プロダクションフレンドリーな学習-ランクモデルを構築することである。
論文 参考訳(メタデータ) (2020-08-24T09:17:18Z) - RNE: A Scalable Network Embedding for Billion-scale Recommendation [21.6366085346674]
データ効率のよいレコメンデーションベースのネットワーク埋め込み手法であるRNEを提案し、ユーザに対してパーソナライズされた多様なアイテムを提供する。
一方,提案手法は,ユーザの関心の多様性と動的特性をモデル化し,推薦品質を高めるとともに,ユーザとアイテム間の局所的な構造を維持できる。
当社は、中国最大のEコマースプラットフォームであるTaobaoのレコメンデーションシナリオにRNEをデプロイし、それを10億規模のユーザテムグラフでトレーニングしています。
論文 参考訳(メタデータ) (2020-03-10T07:08:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。