論文の概要: KuaiLive: A Real-time Interactive Dataset for Live Streaming Recommendation
- arxiv url: http://arxiv.org/abs/2508.05633v1
- Date: Thu, 07 Aug 2025 17:59:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-08 18:59:39.991435
- Title: KuaiLive: A Real-time Interactive Dataset for Live Streaming Recommendation
- Title(参考訳): KuaiLive: ライブストリーミングレコメンデーションのためのリアルタイムインタラクティブデータセット
- Authors: Changle Qu, Sunhao Dai, Ke Guo, Liqin Zhao, Yanan Niu, Xiao Zhang, Jun Xu,
- Abstract要約: KuaiLiveは、中国の主要なライブストリーミングプラットフォームであるKuaishouから収集された、初めてのリアルタイム対話型データセットである。
データセットは、21日間で23,772人のユーザと452,621人のストリーマーのインタラクションログを記録している。
ライブストリーミング領域では、トップKレコメンデーション、クリックスルーレート予測、ウォッチタイム予測、ギフト価格予測など、幅広いタスクをサポートすることができる。
- 参考スコア(独自算出の注目度): 7.94801228491541
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Live streaming platforms have become a dominant form of online content consumption, offering dynamically evolving content, real-time interactions, and highly engaging user experiences. These unique characteristics introduce new challenges that differentiate live streaming recommendation from traditional recommendation settings and have garnered increasing attention from industry in recent years. However, research progress in academia has been hindered by the lack of publicly available datasets that accurately reflect the dynamic nature of live streaming environments. To address this gap, we introduce KuaiLive, the first real-time, interactive dataset collected from Kuaishou, a leading live streaming platform in China with over 400 million daily active users. The dataset records the interaction logs of 23,772 users and 452,621 streamers over a 21-day period. Compared to existing datasets, KuaiLive offers several advantages: it includes precise live room start and end timestamps, multiple types of real-time user interactions (click, comment, like, gift), and rich side information features for both users and streamers. These features enable more realistic simulation of dynamic candidate items and better modeling of user and streamer behaviors. We conduct a thorough analysis of KuaiLive from multiple perspectives and evaluate several representative recommendation methods on it, establishing a strong benchmark for future research. KuaiLive can support a wide range of tasks in the live streaming domain, such as top-K recommendation, click-through rate prediction, watch time prediction, and gift price prediction. Moreover, its fine-grained behavioral data also enables research on multi-behavior modeling, multi-task learning, and fairness-aware recommendation. The dataset and related resources are publicly available at https://imgkkk574.github.io/KuaiLive.
- Abstract(参考訳): ライブストリーミングプラットフォームは、オンラインコンテンツ消費の主要な形態となり、動的に進化するコンテンツ、リアルタイムのインタラクション、非常に魅力的なユーザーエクスペリエンスを提供する。
これらのユニークな特徴は、従来のレコメンデーション設定からライブストリーミングレコメンデーションを区別する新たな課題を導入し、近年は業界からの注目を集めている。
しかし、学術研究の進展は、ライブストリーミング環境の動的性質を正確に反映した公開データセットの欠如によって妨げられている。
このギャップに対処するため、中国の主要なライブストリーミングプラットフォームであるKuaishouから収集された、初めてのリアルタイム対話型データセットであるKuaiLiveを紹介した。
データセットは、21日間で23,772人のユーザと452,621人のストリーマーのインタラクションログを記録している。
既存のデータセットと比較して、KuaiLiveには、正確なライブルームスタートとエンドタイムスタンプ、複数種類のリアルタイムユーザインタラクション(クリック、コメント、いいね!
これらの機能は、動的な候補項目のより現実的なシミュレーションと、ユーザとストリーマーの振る舞いのモデリングを可能にする。
複数の視点からKuaiLiveを徹底的に分析し、いくつかの代表的な推奨手法を評価し、今後の研究のための強力なベンチマークを確立する。
KuaiLiveは、トップKレコメンデーション、クリックスルー率予測、ウォッチタイム予測、ギフト価格予測など、ライブストリーミング領域で幅広いタスクをサポートすることができる。
さらに、その詳細な行動データにより、マルチビヘイビア・モデリング、マルチタスク・ラーニング、フェアネス・アウェア・レコメンデーションの研究が可能になる。
データセットと関連するリソースはhttps://imgkkk574.github.io/KuaiLiveで公開されている。
関連論文リスト
- OPeRA: A Dataset of Observation, Persona, Rationale, and Action for Evaluating LLMs on Human Online Shopping Behavior Simulation [56.47029531207105]
OPERAは、ユーザペルソナ、ブラウザの観察、きめ細かいWebアクション、そして自己報告されたジャストインタイム論理を包括的にキャプチャする最初のパブリックデータセットである。
我々は,現在のLCMがユーザの次の行動と合理的性をどの程度予測できるかを評価するための最初のベンチマークを確立する。
論文 参考訳(メタデータ) (2025-06-05T21:37:49Z) - Seeking and Updating with Live Visual Knowledge [75.25025869244837]
107,143のサンプルと12のカテゴリデータを備えた、第一種データセットであるLiveVQAを紹介する。
LiveVQAは、モデルが知識境界を越えて最新の視覚情報をどう扱うかを評価することができる。
最新の17種類のMLLMの総合的なベンチマークでは、知識の遮断を超えてコンテンツに顕著なパフォーマンスギャップが示される。
論文 参考訳(メタデータ) (2025-04-07T17:39:31Z) - LiveForesighter: Generating Future Information for Live-Streaming Recommendations at Kuaishou [20.689363722025163]
ライブストリーミングは、ユーザーと著者を繋ぐ次世代メディアである。
ライブストリーミングコンテンツは、時間とともに動的に変化している。
コンテンツユーザーが現在興味を持っているライブストリーミングを見つけるにはどうすればいいのか?
論文 参考訳(メタデータ) (2025-02-10T15:24:55Z) - Dreaming User Multimodal Representation Guided by The Platonic Representation Hypothesis for Micro-Video Recommendation [1.8604168495693911]
マルチモーダ空間におけるリアルタイムなユーザ表現を実現するために,ユーザの履歴行動を活用する新しいアプローチであるDreamUMMを紹介する。
DreamUMMは、ユーザビデオの好みとマルチモーダルな類似性を関連づけたクローズドフォームのソリューションを採用しており、ユーザ興味が統一マルチモーダル空間で効果的に表現できるという仮説を立てている。
本研究は,マルチモーダル空間に居住するユーザ関心表現の可能性を支持する実証的証拠を提供することにより,表現収束の継続的な探索に寄与する。
論文 参考訳(メタデータ) (2024-09-15T06:40:38Z) - A Multimodal Transformer for Live Streaming Highlight Prediction [26.787089919015983]
ライブストリーミングは、将来のフレームなしで推論し、複雑なマルチモーダルインタラクションを処理するモデルを必要とする。
モーダル信号の時間的シフトを扱うための新しいモーダル時間アライメントモジュールを提案する。
本稿では,大規模データセットから学習し,ユーザの暗黙的なフィードバックを弱い監視信号として活用するための,境界対応Pairwise Lossを提案する。
論文 参考訳(メタデータ) (2024-06-15T04:59:19Z) - MMBee: Live Streaming Gift-Sending Recommendations via Multi-Modal Fusion and Behaviour Expansion [18.499672566131355]
ギフトインタラクションの正確なモデリングは、ユーザのエクスペリエンスを向上するだけでなく、ストリーマーの収益も増大させる。
従来のレコメンデーション問題として,ライブストリーミングギフト予測に関する先行研究がある。
実時間マルチモーダル・フュージョンとビヘイビア・エクスパンジョンに基づくMMBeeを提案する。
論文 参考訳(メタデータ) (2024-06-15T04:59:00Z) - CinePile: A Long Video Question Answering Dataset and Benchmark [55.30860239555001]
我々は、CinePileという新しいデータセットとベンチマークを提示する。
包括的データセットは305,000の多重選択質問(MCQ)から構成されており、様々な視覚的・マルチモーダル的な側面をカバーしている。
トレーニングスプリットに関して、オープンソースのVideo-LLMを微調整し、データセットのテストスプリット上で、オープンソースとプロプライエタリなビデオ中心LLMの両方を評価しました。
論文 参考訳(メタデータ) (2024-05-14T17:59:02Z) - Learning Human Action Recognition Representations Without Real Humans [66.61527869763819]
そこで本研究では,仮想人間を含む合成データを用いて,実世界の映像を活用してモデルを事前学習するベンチマークを提案する。
次に、このデータに基づいて学習した表現を、下流行動認識ベンチマークの様々なセットに転送可能であるかを評価する。
私たちのアプローチは、以前のベースラインを最大5%上回ります。
論文 参考訳(メタデータ) (2023-11-10T18:38:14Z) - LiveSeg: Unsupervised Multimodal Temporal Segmentation of Long
Livestream Videos [82.48910259277984]
ライブストリームのチュートリアルビデオは通常数時間、録画され、ライブセッションの直後に直接インターネットにアップロードされるため、他の人がすぐに追いつくのが難しくなる。
アウトラインは有益なソリューションであり、トピックに応じてビデオが時間的にセグメント化される必要がある。
我々は、異なるドメインのマルチモーダル機能を生かした、教師なしのLivestreamビデオテンポラルソリューションLiveSegを提案する。
論文 参考訳(メタデータ) (2022-10-12T00:08:17Z) - Learning Dual Dynamic Representations on Time-Sliced User-Item
Interaction Graphs for Sequential Recommendation [62.30552176649873]
シーケンシャルレコメンデーションのための動的表現学習モデル(DRL-SRe)を考案する。
両面から動的に特徴付けるためのユーザ・イテム相互作用をモデル化するため,提案モデルでは,時間スライス毎にグローバルなユーザ・イテム相互作用グラフを構築した。
モデルが微粒な時間情報を捕捉することを可能にするため,連続時間スライス上での補助的時間予測タスクを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:44:27Z) - A Deep Graph Reinforcement Learning Model for Improving User Experience
in Live Video Streaming [7.852895577861326]
本稿では,ライブビデオストリーミングイベントにおけるユーザエクスペリエンスの予測と改善を目的としたディープグラフ強化学習モデルを提案する。
我々のモデルは、最初のストリーミング分で、高品質な体験を持つ視聴者を少なくとも75%増加させることができる。
論文 参考訳(メタデータ) (2021-07-28T19:53:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。