論文の概要: Moment&Cross: Next-Generation Real-Time Cross-Domain CTR Prediction for Live-Streaming Recommendation at Kuaishou
- arxiv url: http://arxiv.org/abs/2408.05709v1
- Date: Sun, 11 Aug 2024 07:00:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 17:51:39.543055
- Title: Moment&Cross: Next-Generation Real-Time Cross-Domain CTR Prediction for Live-Streaming Recommendation at Kuaishou
- Title(参考訳): Moment&Cross: Kuaishouにおけるライブストリーミングレコメンデーションのための次世代リアルタイムクロスドメインCTR予測
- Authors: Jiangxia Cao, Shen Wang, Yue Li, Shenghui Wang, Jian Tang, Shiyao Wang, Shuang Yang, Zhaojie Liu, Guorui Zhou,
- Abstract要約: Kuaishouは、大規模なショートビデオおよびライブストリーミングプラットフォームの1つである。
ライブストリーミングのレコメンデーションは,(1)配信に一時的に対応し,(2)フィードバックの遅延で長時間監視し,(3)コンテンツが予測不能で,時間が経つにつれて変化するため,より複雑になる。
- 参考スコア(独自算出の注目度): 23.590638242542347
- License:
- Abstract: Kuaishou, is one of the largest short-video and live-streaming platform, compared with short-video recommendations, live-streaming recommendation is more complex because of: (1) temporarily-alive to distribution, (2) user may watch for a long time with feedback delay, (3) content is unpredictable and changes over time. Actually, even if a user is interested in the live-streaming author, it still may be an negative watching (e.g., short-view < 3s) since the real-time content is not attractive enough. Therefore, for live-streaming recommendation, there exists a challenging task: how do we recommend the live-streaming at right moment for users? Additionally, our platform's major exposure content is short short-video, and the amount of exposed short-video is 9x more than exposed live-streaming. Thus users will leave more behaviors on short-videos, which leads to a serious data imbalance problem making the live-streaming data could not fully reflect user interests. In such case, there raises another challenging task: how do we utilize users' short-video behaviors to make live-streaming recommendation better?
- Abstract(参考訳): Kuaishouは、短いビデオのレコメンデーションと比較して、最大のショートビデオおよびライブストリーミングプラットフォームの一つであり、ライブストリーミングのレコメンデーションはより複雑である。
実際、たとえユーザーがライブストリーミングの著者に興味があるとしても、リアルタイムコンテンツが十分に魅力的ではないため、ネガティブな視聴(例えば、ショートビュー < 3s)である可能性がある。
したがって、ライブストリーミングレコメンデーションには難しい課題がある。
さらに、我々のプラットフォームの主要な露出コンテンツはショートビデオであり、露出したショートビデオの量は露出したライブストリーミングの9倍である。
したがって、ユーザーはショートビデオにより多くの行動を残すことになるため、ライブストリーミングデータがユーザーの興味を完全に反映できないという深刻なデータ不均衡の問題につながる。
ユーザのショートビデオ行動を利用して、ライブストリーミングのリコメンデーションを改善するには、どうすればよいのか?
関連論文リスト
- V^3: Viewing Volumetric Videos on Mobiles via Streamable 2D Dynamic Gaussians [53.614560799043545]
V3 (Viewing Volumetric Videos) は,ダイナミックガウスのストリーミングによる高品質なモバイルレンダリングを実現する,新たなアプローチである。
私たちの重要なイノベーションは、ダイナミックな3DGSを2Dビデオと見なすことで、ハードウェアビデオコーデックの使用を促進することです。
モバイル端末でダイナミックなガウシアンをストリームする最初の手段として、私たちのコンパニオンプレーヤーは、前例のないボリュームビデオ体験をユーザに提供します。
論文 参考訳(メタデータ) (2024-09-20T16:54:27Z) - Temporal Sentence Grounding in Streaming Videos [60.67022943824329]
本稿では,ストリーミングビデオにおける時間文グラウンディング(TSGSV)の新たな課題に取り組むことを目的とする。
TSGSVの目標は、ビデオストリームと所定の文クエリの関連性を評価することである。
本研究では,(1)モデルが今後のイベントを学習することを可能にするTwinNet構造,(2)冗長な視覚的フレームを除去する言語誘導型特徴圧縮器の2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-14T12:30:58Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - CS-lol: a Dataset of Viewer Comment with Scene in E-sports
Live-streaming [0.5735035463793008]
何十億ものライブストリーミング視聴者が、リアルタイムで見ているシーンについて意見を共有し、イベントと対話する。
CS-lolは,E-Sportsのライブストリーミングにおけるゲームシーンの記述と組み合わせた,視聴者からのコメントを含むデータセットである。
本稿では,ライブストリーミングイベントのシーンに対する視聴者コメントを検索するタスク,すなわち視聴者コメント検索を提案する。
論文 参考訳(メタデータ) (2023-01-17T13:34:06Z) - LiveSeg: Unsupervised Multimodal Temporal Segmentation of Long
Livestream Videos [82.48910259277984]
ライブストリームのチュートリアルビデオは通常数時間、録画され、ライブセッションの直後に直接インターネットにアップロードされるため、他の人がすぐに追いつくのが難しくなる。
アウトラインは有益なソリューションであり、トピックに応じてビデオが時間的にセグメント化される必要がある。
我々は、異なるドメインのマルチモーダル機能を生かした、教師なしのLivestreamビデオテンポラルソリューションLiveSegを提案する。
論文 参考訳(メタデータ) (2022-10-12T00:08:17Z) - Tutorial Recommendation for Livestream Videos using Discourse-Level
Consistency and Ontology-Based Filtering [75.78484403289228]
本稿では,ライブストリーミングビデオのチュートリアルレコメンデーションタスクのための新しいデータセットとモデルを提案する。
システムは、ライブストリーミングビデオの内容を分析し、最も関連性の高いチュートリアルを推薦することができる。
論文 参考訳(メタデータ) (2022-09-11T22:45:57Z) - Modeling Live Video Streaming: Real-Time Classification, QoE Inference,
and Field Evaluation [1.4353812560047186]
ReCLiveは、ネットワークレベルの挙動特性に基づいたライブビデオ検出およびQoE計測のための機械学習手法である。
TwitchとYouTubeの約23,000のビデオストリームを分析し、ライブとオンデマンドのストリーミングを区別するトラフィックプロファイルの重要な特徴を特定します。
私たちのソリューションは、ISPにライブビデオストリームの細かい可視性を提供し、ユーザエクスペリエンスの測定と改善を可能にします。
論文 参考訳(メタデータ) (2021-12-05T17:53:06Z) - The Role of "Live" in Livestreaming Markets: Evidence Using Orthogonal
Random Forest [5.993591729907003]
当社は、ライブストリームの前日、前日、後日に、需要がどのように価格に反応するかを見積もっている。
スケジュールされたライブストリーミングデイとそれ以降の時間的距離における需要の価格弾力性には大きなダイナミクスがある。
我々は、その結果を駆動するメカニズムの示唆的な証拠を提示する。
論文 参考訳(メタデータ) (2021-07-04T13:50:54Z) - Long Short-Term Relation Networks for Video Action Detection [155.13392337831166]
本稿では,Long Short-Term Relation Networks (LSTR)について述べる。
LSTRは、ビデオアクション検出のための拡張機能と関連して集約し、伝播する。
4つのベンチマークデータセットで大規模な実験を行う。
論文 参考訳(メタデータ) (2020-03-31T10:02:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。