論文の概要: Moment&Cross: Next-Generation Real-Time Cross-Domain CTR Prediction for Live-Streaming Recommendation at Kuaishou
- arxiv url: http://arxiv.org/abs/2408.05709v1
- Date: Sun, 11 Aug 2024 07:00:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 17:51:39.543055
- Title: Moment&Cross: Next-Generation Real-Time Cross-Domain CTR Prediction for Live-Streaming Recommendation at Kuaishou
- Title(参考訳): Moment&Cross: Kuaishouにおけるライブストリーミングレコメンデーションのための次世代リアルタイムクロスドメインCTR予測
- Authors: Jiangxia Cao, Shen Wang, Yue Li, Shenghui Wang, Jian Tang, Shiyao Wang, Shuang Yang, Zhaojie Liu, Guorui Zhou,
- Abstract要約: Kuaishouは、大規模なショートビデオおよびライブストリーミングプラットフォームの1つである。
ライブストリーミングのレコメンデーションは,(1)配信に一時的に対応し,(2)フィードバックの遅延で長時間監視し,(3)コンテンツが予測不能で,時間が経つにつれて変化するため,より複雑になる。
- 参考スコア(独自算出の注目度): 23.590638242542347
- License:
- Abstract: Kuaishou, is one of the largest short-video and live-streaming platform, compared with short-video recommendations, live-streaming recommendation is more complex because of: (1) temporarily-alive to distribution, (2) user may watch for a long time with feedback delay, (3) content is unpredictable and changes over time. Actually, even if a user is interested in the live-streaming author, it still may be an negative watching (e.g., short-view < 3s) since the real-time content is not attractive enough. Therefore, for live-streaming recommendation, there exists a challenging task: how do we recommend the live-streaming at right moment for users? Additionally, our platform's major exposure content is short short-video, and the amount of exposed short-video is 9x more than exposed live-streaming. Thus users will leave more behaviors on short-videos, which leads to a serious data imbalance problem making the live-streaming data could not fully reflect user interests. In such case, there raises another challenging task: how do we utilize users' short-video behaviors to make live-streaming recommendation better?
- Abstract(参考訳): Kuaishouは、短いビデオのレコメンデーションと比較して、最大のショートビデオおよびライブストリーミングプラットフォームの一つであり、ライブストリーミングのレコメンデーションはより複雑である。
実際、たとえユーザーがライブストリーミングの著者に興味があるとしても、リアルタイムコンテンツが十分に魅力的ではないため、ネガティブな視聴(例えば、ショートビュー < 3s)である可能性がある。
したがって、ライブストリーミングレコメンデーションには難しい課題がある。
さらに、我々のプラットフォームの主要な露出コンテンツはショートビデオであり、露出したショートビデオの量は露出したライブストリーミングの9倍である。
したがって、ユーザーはショートビデオにより多くの行動を残すことになるため、ライブストリーミングデータがユーザーの興味を完全に反映できないという深刻なデータ不均衡の問題につながる。
ユーザのショートビデオ行動を利用して、ライブストリーミングのリコメンデーションを改善するには、どうすればよいのか?
関連論文リスト
- FARM: Frequency-Aware Model for Cross-Domain Live-Streaming Recommendation [24.07417561307543]
FARMと呼ばれるクロスドメインライブストリーミングレコメンデーションのための周波数認識モデルを提案する。
当社のFARMはオンラインライブストリーミングサービスにデプロイされており、現在Kuaishou上で数億人のユーザにサービスを提供しています。
論文 参考訳(メタデータ) (2025-02-13T14:44:15Z) - LiveForesighter: Generating Future Information for Live-Streaming Recommendations at Kuaishou [20.689363722025163]
ライブストリーミングは、ユーザーと著者を繋ぐ次世代メディアである。
ライブストリーミングコンテンツは、時間とともに動的に変化している。
コンテンツユーザーが現在興味を持っているライブストリーミングを見つけるにはどうすればいいのか?
論文 参考訳(メタデータ) (2025-02-10T15:24:55Z) - V^3: Viewing Volumetric Videos on Mobiles via Streamable 2D Dynamic Gaussians [53.614560799043545]
V3 (Viewing Volumetric Videos) は,ダイナミックガウスのストリーミングによる高品質なモバイルレンダリングを実現する,新たなアプローチである。
私たちの重要なイノベーションは、ダイナミックな3DGSを2Dビデオと見なすことで、ハードウェアビデオコーデックの使用を促進することです。
モバイル端末でダイナミックなガウシアンをストリームする最初の手段として、私たちのコンパニオンプレーヤーは、前例のないボリュームビデオ体験をユーザに提供します。
論文 参考訳(メタデータ) (2024-09-20T16:54:27Z) - Counteracting Duration Bias in Video Recommendation via Counterfactual Watch Time [63.844468159126826]
視聴時間の予測は時間のバイアスに悩まされ、ユーザーの興味を正確に反映する能力を妨げる。
対実時計モデル (CWM) が提案され、CWTはユーザーがビデオレコメンデーションシステムから最大限の利益を得る時間に等しいことを示した。
論文 参考訳(メタデータ) (2024-06-12T06:55:35Z) - A Vlogger-augmented Graph Neural Network Model for Micro-video Recommendation [7.54949302096348]
本稿では, vloggers の効果を考慮した vlogger-augmented graph neural network model VA-GNN を提案する。
具体的には、ユーザ、マイクロビデオ、vloggerをノードとして三部グラフを構築し、異なるビューからユーザの好みをキャプチャする。
次のユーザとビデオのインタラクションを予測する際に、ビデオ自体とvloggerに対するユーザの好みを適応的に組み合わせます。
論文 参考訳(メタデータ) (2024-05-28T15:13:29Z) - Temporal Sentence Grounding in Streaming Videos [60.67022943824329]
本稿では,ストリーミングビデオにおける時間文グラウンディング(TSGSV)の新たな課題に取り組むことを目的とする。
TSGSVの目標は、ビデオストリームと所定の文クエリの関連性を評価することである。
本研究では,(1)モデルが今後のイベントを学習することを可能にするTwinNet構造,(2)冗長な視覚的フレームを除去する言語誘導型特徴圧縮器の2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-14T12:30:58Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - LiveSeg: Unsupervised Multimodal Temporal Segmentation of Long
Livestream Videos [82.48910259277984]
ライブストリームのチュートリアルビデオは通常数時間、録画され、ライブセッションの直後に直接インターネットにアップロードされるため、他の人がすぐに追いつくのが難しくなる。
アウトラインは有益なソリューションであり、トピックに応じてビデオが時間的にセグメント化される必要がある。
我々は、異なるドメインのマルチモーダル機能を生かした、教師なしのLivestreamビデオテンポラルソリューションLiveSegを提案する。
論文 参考訳(メタデータ) (2022-10-12T00:08:17Z) - The Role of "Live" in Livestreaming Markets: Evidence Using Orthogonal
Random Forest [5.993591729907003]
当社は、ライブストリームの前日、前日、後日に、需要がどのように価格に反応するかを見積もっている。
スケジュールされたライブストリーミングデイとそれ以降の時間的距離における需要の価格弾力性には大きなダイナミクスがある。
我々は、その結果を駆動するメカニズムの示唆的な証拠を提示する。
論文 参考訳(メタデータ) (2021-07-04T13:50:54Z) - Long Short-Term Relation Networks for Video Action Detection [155.13392337831166]
本稿では,Long Short-Term Relation Networks (LSTR)について述べる。
LSTRは、ビデオアクション検出のための拡張機能と関連して集約し、伝播する。
4つのベンチマークデータセットで大規模な実験を行う。
論文 参考訳(メタデータ) (2020-03-31T10:02:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。