論文の概要: Contextual User Browsing Bandits for Large-Scale Online Mobile
Recommendation
- arxiv url: http://arxiv.org/abs/2008.09368v1
- Date: Fri, 21 Aug 2020 08:22:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 22:21:12.404146
- Title: Contextual User Browsing Bandits for Large-Scale Online Mobile
Recommendation
- Title(参考訳): 大規模オンラインモバイルレコメンデーションのためのコンテキストユーザブラウジングバンド
- Authors: Xu He, Bo An, Yanghua Li, Haikai Chen, Qingyu Guo, Xin Li, and Zhirong
Wang
- Abstract要約: より高い位置は、1つの商品のクリック数を増やす。
まずは推奨アイテムがいくつか表示され、ユーザーは他のアイテムを閲覧するために画面をスライドする必要がある。
後付けの推奨項目はユーザには見られず、このような項目を否定的な例として扱うのは適切ではない。
- 参考スコア(独自算出の注目度): 24.810164687987243
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online recommendation services recommend multiple commodities to users.
Nowadays, a considerable proportion of users visit e-commerce platforms by
mobile devices. Due to the limited screen size of mobile devices, positions of
items have a significant influence on clicks: 1) Higher positions lead to more
clicks for one commodity. 2) The 'pseudo-exposure' issue: Only a few
recommended items are shown at first glance and users need to slide the screen
to browse other items. Therefore, some recommended items ranked behind are not
viewed by users and it is not proper to treat this kind of items as negative
samples. While many works model the online recommendation as contextual bandit
problems, they rarely take the influence of positions into consideration and
thus the estimation of the reward function may be biased. In this paper, we aim
at addressing these two issues to improve the performance of online mobile
recommendation. Our contributions are four-fold. First, since we concern the
reward of a set of recommended items, we model the online recommendation as a
contextual combinatorial bandit problem and define the reward of a recommended
set. Second, we propose a novel contextual combinatorial bandit method called
UBM-LinUCB to address two issues related to positions by adopting the User
Browsing Model (UBM), a click model for web search. Third, we provide a formal
regret analysis and prove that our algorithm achieves sublinear regret
independent of the number of items. Finally, we evaluate our algorithm on two
real-world datasets by a novel unbiased estimator. An online experiment is also
implemented in Taobao, one of the most popular e-commerce platforms in the
world. Results on two CTR metrics show that our algorithm outperforms the other
contextual bandit algorithms.
- Abstract(参考訳): オンラインレコメンデーションサービスはユーザーに複数の商品を推奨する。
今日では、かなりの数のユーザーがモバイルデバイスでeコマースプラットフォームを訪れている。
モバイルデバイスの画面サイズが限られているため、アイテムの位置がクリックに大きく影響する。
1) 高い位置は1つの商品のクリック数を増やす。
2)「露出」問題:一見して推奨項目がいくつか表示され、ユーザーは他の項目を閲覧するために画面をスライドさせる必要がある。
したがって、後続の推奨項目はユーザには見られず、この種の項目を否定的なサンプルとして扱うのは適切ではない。
多くの作品がオンラインレコメンデーションを文脈的バンディット問題としてモデル化しているが、ポジションの影響を考慮に入れることは稀であり、報酬関数の推定が偏っている可能性がある。
本稿では,これら2つの課題に対処し,オンラインモバイルレコメンデーションの性能向上を目指す。
私たちの貢献は4倍です。
まず、推奨項目のセットの報酬に関する懸念から、オンラインレコメンデーションを文脈組合せバンディット問題としてモデル化し、レコメンデーション集合の報酬を定義する。
第2に,UBM-LinUCB という,Web 検索のためのクリックモデルである User Browsing Model (UBM) を採用することにより,位置に関する2つの問題に対処する,コンテキスト結合型バンドイット手法を提案する。
第3に,形式的後悔分析を行い,提案アルゴリズムが項目数に依存しないサブ線形後悔を実現することを示す。
最後に,このアルゴリズムを2つの実世界のデータセット上で評価する。
オンライン実験は、世界で最も人気のあるeコマースプラットフォームの1つであるTaobaoでも実施されている。
2つのCTR測定結果から,我々のアルゴリズムは,他の文脈的帯域幅アルゴリズムよりも優れていることが示された。
関連論文リスト
- Mitigating Exposure Bias in Online Learning to Rank Recommendation: A Novel Reward Model for Cascading Bandits [23.15042648884445]
我々は,Linear Cascading Banditsとして知られる,よく知られた文脈的帯域幅アルゴリズムのクラスにおける露出バイアスについて検討した。
本研究では,1)暗黙的なユーザフィードバック,2)レコメンデーションリストにおける項目の位置という2つの要因に基づいて,モデルパラメータを更新する Exposure-Aware reward モデルを提案する。
論文 参考訳(メタデータ) (2024-08-08T09:35:01Z) - A Scalable Recommendation Engine for New Users and Items [0.0]
属性(A)レコメンデーションシステム(CFB-A)による協調フィルタリング(CF)マルチアームバンド(B)
本稿では,A(A)レコメンデーションシステム(CFB-A)を用いた協調フィルタリング(CF)マルチアームバンド(B)を提案する。
MovieLensデータに対するオフラインテスト、合成データシミュレーション、オンライン食料品実験などの実証的な応用は、CFB-Aが累積平均報酬を大幅に改善することを示している。
論文 参考訳(メタデータ) (2022-09-06T14:59:00Z) - Recommendation Systems with Distribution-Free Reliability Guarantees [83.80644194980042]
我々は、主に良いアイテムを含むことを厳格に保証されたアイテムのセットを返す方法を示す。
本手法は, 擬似発見率の厳密な有限サンプル制御によるランキングモデルを提供する。
我々はYahoo!のランキングとMSMarcoデータセットの学習方法を評価する。
論文 参考訳(メタデータ) (2022-07-04T17:49:25Z) - On component interactions in two-stage recommender systems [82.38014314502861]
2段階のレコメンデータは、YouTube、LinkedIn、Pinterestなど、多くのオンラインプラットフォームで使用されている。
ランク付け器と評価器の相互作用が全体の性能に大きく影響していることが示される。
特に、Mixture-of-Expertsアプローチを用いて、アイテムプールの異なるサブセットに特化するように、ノミネータを訓練する。
論文 参考訳(メタデータ) (2021-06-28T20:53:23Z) - Set2setRank: Collaborative Set to Set Ranking for Implicit Feedback
based Recommendation [59.183016033308014]
本稿では,暗黙的フィードバックの特徴を探究し,推奨するSet2setRankフレームワークを提案する。
提案するフレームワークはモデルに依存しず,ほとんどの推奨手法に容易に適用できる。
論文 参考訳(メタデータ) (2021-05-16T08:06:22Z) - Dynamic Slate Recommendation with Gated Recurrent Units and Thompson
Sampling [6.312395952874578]
我々は,インターネットプラットフォームのユーザに対して,アイテムリストとしてslatesという,関連するコンテンツを推薦する問題を考える。
本稿では,インターネットプラットフォームとユーザ間のインタラクションの時系列に作用する変分ベイズ型リカレントニューラルネットレコメンデータシステムを提案する。
我々は,探索的レコメンデーション戦略が,同程度以上の欲望に対して有効であることを実験的に示す。
論文 参考訳(メタデータ) (2021-04-30T15:16:35Z) - Measuring Recommender System Effects with Simulated Users [19.09065424910035]
人気バイアスとフィルターバブルは、最もよく研究されているシステムバイアスの2つです。
各種ユーザ行動下におけるレコメンダーシステムの影響を測定するためのシミュレーションフレームワークを提供します。
論文 参考訳(メタデータ) (2021-01-12T14:51:11Z) - Regret in Online Recommendation Systems [73.58127515175127]
本稿では,オンライン環境におけるレコメンデーションシステムの理論的分析について提案する。
各ラウンドにおいて、ユーザがランダムに$m$ユーザから選択され、レコメンデーションが要求される。決定者は、ユーザを観察し、$n$アイテムのカタログからアイテムを選択する。
推奨アルゴリズムのパフォーマンスは、これらの可能性を認識したOracleアルゴリズムを参照して、その後悔を通じて取得される。
論文 参考訳(メタデータ) (2020-10-23T12:48:35Z) - Partial Bandit and Semi-Bandit: Making the Most Out of Scarce Users'
Feedback [62.997667081978825]
本稿では,ユーザのフィードバックを考慮し,3つの戦略を用いて評価する手法を提案する。
ユーザからのフィードバックが制限されているにも関わらず(全体の20%以下)、我々の手法は最先端のアプローチと同じような結果が得られる。
論文 参考訳(メタデータ) (2020-09-16T07:32:51Z) - Controllable Multi-Interest Framework for Recommendation [64.30030600415654]
我々はレコメンデータシステムを逐次レコメンデーション問題として定式化する。
我々は,ComiRec と呼ばれる連続的なレコメンデーションのための新しい制御可能な多目的フレームワークを提案する。
私たちのフレームワークは、オフラインのAlibaba分散クラウドプラットフォームにうまくデプロイされています。
論文 参考訳(メタデータ) (2020-05-19T10:18:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。