論文の概要: Beyond Relevance: Improving User Engagement by Personalization for Short-Video Search
- arxiv url: http://arxiv.org/abs/2409.11281v1
- Date: Tue, 17 Sep 2024 15:37:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 15:26:45.938319
- Title: Beyond Relevance: Improving User Engagement by Personalization for Short-Video Search
- Title(参考訳): 関連性を超えて:ショートビデオ検索のためのパーソナライズによるユーザエンゲージメントの改善
- Authors: Wentian Bao, Hu Liu, Kai Zheng, Chao Zhang, Shunyu Zhang, Enyun Yu, Wenwu Ou, Yang Song,
- Abstract要約: 我々は,ショートビデオ検索をパーソナライズするための新鮮で包括的なソリューションである$textPR2$を紹介した。
具体的には、$textPR2$はクエリ関連コラボレーティブフィルタリングとパーソナライズされた高密度検索を利用する。
私たちは近年,ユーザエンゲージメントの改善を最も目覚ましいものにしています。
- 参考スコア(独自算出の注目度): 16.491313774639007
- License:
- Abstract: Personalized search has been extensively studied in various applications, including web search, e-commerce, social networks, etc. With the soaring popularity of short-video platforms, exemplified by TikTok and Kuaishou, the question arises: can personalization elevate the realm of short-video search, and if so, which techniques hold the key? In this work, we introduce $\text{PR}^2$, a novel and comprehensive solution for personalizing short-video search, where $\text{PR}^2$ stands for the Personalized Retrieval and Ranking augmented search system. Specifically, $\text{PR}^2$ leverages query-relevant collaborative filtering and personalized dense retrieval to extract relevant and individually tailored content from a large-scale video corpus. Furthermore, it utilizes the QIN (Query-Dominate User Interest Network) ranking model, to effectively harness user long-term preferences and real-time behaviors, and efficiently learn from user various implicit feedback through a multi-task learning framework. By deploying the $\text{PR}^2$ in production system, we have achieved the most remarkable user engagement improvements in recent years: a 10.2% increase in CTR@10, a notable 20% surge in video watch time, and a 1.6% uplift of search DAU. We believe the practical insights presented in this work are valuable especially for building and improving personalized search systems for the short video platforms.
- Abstract(参考訳): パーソナライズされた検索は、Web検索、eコマース、ソーシャルネットワークなど、様々なアプリケーションで広く研究されている。
TikTokとKuaishouが例に挙げたショートビデオプラットフォームの人気が高まり、この疑問が浮かび上がっている。
本稿では,ショートビデオ検索をパーソナライズするための新鮮で包括的なソリューションである$\text{PR}^2$を紹介し,この$\text{PR}^2$はパーソナライズされた検索システムとランキング検索システムを表す。
具体的には、$\text{PR}^2$は、クエリ関連協調フィルタリングとパーソナライズされた密集検索を活用して、大規模ビデオコーパスから関連性および個別に調整されたコンテンツを抽出する。
さらに、QIN(Query-Dominate User Interest Network)ランキングモデルを利用して、ユーザの長期的嗜好とリアルタイムな振る舞いを効果的に活用し、マルチタスク学習フレームワークを通じて、ユーザの暗黙的なフィードバックから効率的に学習する。
運用システムに$\text{PR}^2$をデプロイすることで、近年で最も注目すべきユーザエンゲージメントの改善を実現しました。CTR@10の10.2%増加、ビデオ視聴時間の20%増加、検索DAUの1.6%アップリフトです。
この研究で提示された実践的洞察は、特にショートビデオプラットフォームのためのパーソナライズされた検索システムの構築と改善に有用であると考えている。
関連論文リスト
- Improving Video Corpus Moment Retrieval with Partial Relevance Enhancement [72.7576395034068]
Video Corpus Moment Retrieval(VCMR)は、テキストクエリを使って、大量の未トリミングビデオから関連する瞬間を検索するための、新しいビデオ検索タスクである。
我々は、VCMRタスクにおいて、クエリとビデオの間の部分的関係を効果的に捉えることが不可欠であると主張している。
ビデオ検索には,2つのモーダルに対して異なる問合せ表現を生成するマルチモーダル・コラボレーティブ・ビデオレトリバーを導入する。
そこで本研究では,モータリティ特異的なゲートを用いたモーメントローカライザを提案する。
論文 参考訳(メタデータ) (2024-02-21T07:16:06Z) - Building an Open-Vocabulary Video CLIP Model with Better Architectures,
Optimization and Data [102.0069667710562]
本稿では,CLIPを強力なゼロショットビデオ分類器に適応させるフレームワークであるOpen-VCLIP++を提案する。
我々は,Open-VCLIP++のトレーニングが,履歴データゼロで連続的な学習に欠かせないことを実証した。
提案手法は,広く使用されている3つの行動認識データセットを用いて評価する。
論文 参考訳(メタデータ) (2023-10-08T04:46:43Z) - Video-based Person Re-identification with Long Short-Term Representation
Learning [101.62570747820541]
ビデオベースの人物再識別(V-ReID)は、オーバーラップしないカメラで撮影した生のビデオから特定の人物を回収することを目的としている。
本稿では,V-ReIDのためのLong Short-Term Representation Learning(LSTRL)という新しいディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-07T16:22:47Z) - Interactive Video Corpus Moment Retrieval using Reinforcement Learning [35.38916770127218]
本稿では,ユーザからのフィードバックから長期学習を行うことで,数ラウンド以内で検索対象に到達することを目的とした強化学習による課題に対処する。
我々は,ビデオコーパスモーメント検索(VCMR)の課題に対して,大規模なビデオコーパスからモーメントをローカライズする実験を行った。
論文 参考訳(メタデータ) (2023-02-19T09:48:23Z) - Tree-based Text-Vision BERT for Video Search in Baidu Video Advertising [58.09698019028931]
ビデオ広告とユーザー検索をどう組み合わせるかがBaiduビデオ広告の中核となる課題だ。
モダリティのギャップのため、従来のクエリ・ツー・ビデオ検索よりも、クエリ・ツー・ビデオ検索の方がはるかに難しい。
我々は最近Baiduのダイナミックビデオ広告プラットフォームで開始されたツリーベースのコンボアテンションネットワーク(TCAN)について紹介する。
論文 参考訳(メタデータ) (2022-09-19T04:49:51Z) - CONQUER: Contextual Query-aware Ranking for Video Corpus Moment
Retrieval [24.649068267308913]
ビデオ検索アプリケーションは、ユーザーが大きなビデオコーパスから正確な瞬間を検索できるようにする。
本稿では,効率的なモーメントローカライゼーションとランキングのための新しいモデルを提案する。
クローズドワールドTVエピソードのTVRと、オープンワールドのユーザ生成ビデオのDiDeMoの2つのデータセットについて研究する。
論文 参考訳(メタデータ) (2021-09-21T08:07:27Z) - APES: Audiovisual Person Search in Untrimmed Video [87.4124877066541]
音声人物探索データセット(APES)について述べる。
APESには36時間のビデオにラベル付けされた1,9K以上のIDが含まれている。
APESの重要な特徴は、顔と同一アイデンティティの音声セグメントをリンクする密集した時間アノテーションを含むことである。
論文 参考訳(メタデータ) (2021-06-03T08:16:42Z) - Less is More: ClipBERT for Video-and-Language Learning via Sparse
Sampling [98.41300980759577]
ビデオと言語の学習に対する標準的なアプローチは、オフラインで抽出された高密度ビデオ機能から学習するニューラルネットワークを規定する。
本稿では,ビデオ・言語タスクに対して,手頃なエンドツーエンド学習を可能にする汎用フレームワークClipBERTを提案する。
6つのデータセットにおけるテキスト・ビデオ検索とビデオ質問応答の実験は、ClipBERTが既存の手法より優れていることを示した。
論文 参考訳(メタデータ) (2021-02-11T18:50:16Z) - Adaptive Video Highlight Detection by Learning from User History [18.18119240674014]
本研究では,ユーザの履歴を,ユーザが以前に作成したハイライト形式で活用することで,ハイライト検出をユーザに適用するフレームワークを提案する。
我々のフレームワークは2つのサブネットワークで構成されている。完全な時間的畳み込みハイライト検出ネットワーク$H$は、入力ビデオのハイライトを予測し、履歴エンコーダネットワーク$M$は、ユーザ履歴のためのものである。
論文 参考訳(メタデータ) (2020-07-19T05:52:20Z) - Personalizing Fast-Forward Videos Based on Visual and Textual Features
from Social Network [9.353403626477135]
我々は、ファーストパーソンビデオ(FPV)のためのパーソナライズされたファストフォワードビデオを自動的に作成する新しいアプローチを提案する。
提案手法では,ユーザのソーシャルネットワークからテキスト中心のデータを用いて,興味のあるトピックを推測し,好みに応じてスコアを入力フレームに割り当てる。
論文 参考訳(メタデータ) (2019-12-29T14:09:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。