論文の概要: Conditional Quantile Estimation for Uncertain Watch Time in Short-Video Recommendation
- arxiv url: http://arxiv.org/abs/2407.12223v2
- Date: Sat, 27 Jul 2024 07:58:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 20:41:58.207867
- Title: Conditional Quantile Estimation for Uncertain Watch Time in Short-Video Recommendation
- Title(参考訳): 短時間ビデオ推薦における不確かさウォッチタイムの条件量子推定
- Authors: Chengzhi Lin, Shuchang Liu, Chuyuan Wang, Yongqi Liu,
- Abstract要約: 本稿では,時計時間全体の条件分布をモデル化するための条件量子推定(CQE)フレームワークを提案する。
CQEは、ユーザとビデオのペアごとに複雑なウォッチタイム分布を特徴付け、ユーザの振る舞いを理解するための柔軟で包括的なアプローチを提供する。
特に、KuaiShowにおけるCQEのオンライン展開は、主要な評価指標を大幅に改善した。
- 参考スコア(独自算出の注目度): 2.3166433227657186
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Accurately predicting watch time is crucial for optimizing recommendations and user experience in short video platforms. However, existing methods that estimate a single average watch time often fail to capture the inherent uncertainty and diversity in user engagement patterns. In this paper, we propose the Conditional Quantile Estimation (CQE) framework to model the entire conditional distribution of watch time. Using quantile regression, CQE characterizes the complex watch-time distribution for each user-video pair, providing a flexible and comprehensive approach to understanding user behavior. We further design multiple strategies to combine the quantile estimates, adapting to different recommendation scenarios and user preferences. Extensive offline experiments and online A/B tests demonstrate the superiority of CQE in watch time prediction and user engagement modeling. In particular, the online deployment of CQE in KuaiShow has led to significant improvements in key evaluation metrics, including active days, active users, engagement duration, and video view counts. These results highlight the practical impact of our proposed approach in enhancing the user experience and overall performance of the short video recommendation system. The code will be released after publication.
- Abstract(参考訳): ウォッチタイムの正確な予測は、短いビデオプラットフォームにおける推奨事項とユーザーエクスペリエンスの最適化に不可欠である。
しかし、単一の平均時計時間を見積もる既存の方法は、ユーザエンゲージメントパターンの固有の不確実性や多様性を捉えるのに失敗することが多い。
本稿では,時計時間全体の条件分布をモデル化する条件量子推定(CQE)フレームワークを提案する。
量子回帰を用いて、CQEは、ユーザとビデオのペアごとに複雑なウォッチタイム分布を特徴付け、ユーザの振る舞いを理解するための柔軟で包括的なアプローチを提供する。
さらに、様々なレコメンデーションシナリオやユーザの好みに適応して、定量推定と組み合わせるための複数の戦略を設計します。
大規模なオフライン実験とオンラインA/Bテストは、ウォッチタイム予測とユーザエンゲージメントモデリングにおけるCQEの優位性を示している。
特に、KuaiShowにおけるCQEのオンライン展開は、アクティブデイ、アクティブユーザ、エンゲージメント期間、ビデオビュー数など、重要な評価指標を大幅に改善した。
これらの結果は,短いビデオレコメンデーションシステムのユーザエクスペリエンスと全体的なパフォーマンス向上における,提案手法の実践的影響を浮き彫りにしている。
コードは公開後に公開される。
関連論文リスト
- Delving Deep into Engagement Prediction of Short Videos [34.38399476375175]
本研究は,ユーザインタラクションが限定されたビデオのエンゲージメント予測の難しさを深く掘り下げるものである。
Snapchatの90,000の現実世界のショートビデオからなる、実質的なデータセットを紹介します。
本手法は,映像コンテンツから映像のエンゲージメントを純粋に予測できることを示す。
論文 参考訳(メタデータ) (2024-09-30T23:57:07Z) - Strike the Balance: On-the-Fly Uncertainty based User Interactions for Long-Term Video Object Segmentation [3.3088334148160725]
本稿では,対話的かつ半自動的なアプローチを橋渡しするビデオオブジェクトセグメンテーション(VOS)について紹介する。
関心対象の追跡期間を最大化しつつ,追跡期間の延長を最小限に抑えることを目的としている。
我々は,最近導入されたLVOSデータセットを用いて,多数の長期ビデオを提供するアプローチを評価した。
論文 参考訳(メタデータ) (2024-07-31T21:42:42Z) - A Large Language Model Enhanced Sequential Recommender for Joint Video and Comment Recommendation [77.42486522565295]
我々は、パーソナライズされたビデオとコメントのレコメンデーションを共同で行うLSVCRと呼ばれる新しいレコメンデーション手法を提案する。
提案手法は,逐次レコメンデーション(SR)モデルと補足型大規模言語モデル(LLM)レコメンデーションという2つの重要なコンポーネントから構成される。
特に、コメント視聴時間の4.13%が大幅に向上した。
論文 参考訳(メタデータ) (2024-03-20T13:14:29Z) - Conformal Prediction in Multi-User Settings: An Evaluation [0.10231119246773925]
マシンラーニングモデルは、ユーザを区別することなく、トレーニングされ、評価される。
これにより、マルチユーザ設定で不正確なパフォーマンス指標が生成される。
本研究では,複数のマルチユーザ設定における共形予測フレームワークの評価を行った。
論文 参考訳(メタデータ) (2023-12-08T17:33:23Z) - EvalCrafter: Benchmarking and Evaluating Large Video Generation Models [70.19437817951673]
これらのモデルはしばしば、マルチアスペクト能力を持つ非常に大きなデータセットで訓練されているので、単純な指標から大きな条件生成モデルを判断することは困難である、と我々は主張する。
我々のアプローチは、テキスト・ツー・ビデオ生成のための700のプロンプトの多種多様な包括的リストを作成することである。
そこで我々は、視覚的品質、コンテンツ品質、動作品質、テキスト・ビデオアライメントの観点から、慎重に設計されたベンチマークに基づいて、最先端のビデオ生成モデルを評価する。
論文 参考訳(メタデータ) (2023-10-17T17:50:46Z) - Multiscale Video Pretraining for Long-Term Activity Forecasting [67.06864386274736]
マルチスケールビデオプレトレーニングは、複数の時間スケールで将来のビデオクリップの文脈化された表現を予測することを学ぶことによって、予測のための堅牢な表現を学習する。
MVPは、ビデオ内のアクションは、通常、短い時間スケールでアトミックアクションが起こり、より複雑なアクションがより長い時間スケールで発生する、マルチスケールな性質を持つ、という私たちの観察に基づいています。
Ego4DとEpic-Kitchens-55/100データセットにわたる包括的な実験では、MVPが最先端のメソッドをかなりのマージンで上回っていることが示されています。
論文 参考訳(メタデータ) (2023-07-24T14:55:15Z) - Cluster-and-Conquer: A Framework For Time-Series Forecasting [94.63501563413725]
本稿では,高次元時系列データを予測するための3段階フレームワークを提案する。
当社のフレームワークは非常に汎用的で,各ステップで時系列予測やクラスタリングが利用可能です。
単純な線形自己回帰モデルでインスタンス化されると、いくつかのベンチマークデータセットで最先端の結果が得られる。
論文 参考訳(メタデータ) (2021-10-26T20:41:19Z) - Click-through Rate Prediction with Auto-Quantized Contrastive Learning [46.585376453464114]
ユーザ行動が予測の利益を捉えるのに十分リッチかどうかを考察し、モデルを正規化するためのAQCL(Auto-Quantized Contrastive Learning)損失を提案する。
提案されたフレームワークは、異なるモデルアーキテクチャに非依存であり、エンドツーエンドでトレーニングすることができる。
論文 参考訳(メタデータ) (2021-09-27T04:39:43Z) - Modeling Online Behavior in Recommender Systems: The Importance of
Temporal Context [30.894950420437926]
推薦システムの性能を評価するときの時間的文脈の省略が、いかに誤った自信をもたらすかを示す。
既存のモデルに時間的文脈をさらに埋め込むためのトレーニング手順を提案する。
その結果、時間的目標を含めれば、リコール@20を最大20%改善できることがわかった。
論文 参考訳(メタデータ) (2020-09-19T19:36:43Z) - Sequential Recommender via Time-aware Attentive Memory Network [67.26862011527986]
本稿では,注意機構と繰り返し単位を改善するための時間ゲーティング手法を提案する。
また,長期と短期の嗜好を統合するマルチホップ・タイムアウェア・アテンテーティブ・メモリ・ネットワークを提案する。
提案手法は,候補探索タスクに対してスケーラブルであり,ドット積に基づくTop-Kレコメンデーションのための潜在因数分解の非線形一般化とみなすことができる。
論文 参考訳(メタデータ) (2020-05-18T11:29:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。