論文の概要: SWaT: Statistical Modeling of Video Watch Time through User Behavior Analysis
- arxiv url: http://arxiv.org/abs/2408.07759v1
- Date: Wed, 14 Aug 2024 18:19:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 17:51:45.960847
- Title: SWaT: Statistical Modeling of Video Watch Time through User Behavior Analysis
- Title(参考訳): SWaT:ユーザの行動分析によるビデオ視聴時間の統計的モデリング
- Authors: Shentao Yang, Haichuan Yang, Linna Du, Adithya Ganesh, Bo Peng, Boying Liu, Serena Li, Ji Liu,
- Abstract要約: 本稿では,ビデオの視聴時の様々なユーザの行動仮定を統計的視聴時間モデルに変換するホワイトボックス統計フレームワークを提案する。
当社のモデルは、2つのパブリックデータセット、大規模なオフライン産業データセット、および数億人のデイリーアクティブユーザを持つ短いビデオプラットフォーム上でオンラインA/Bテストで広範囲にテストしています。
- 参考スコア(独自算出の注目度): 15.246875830547056
- License:
- Abstract: The significance of estimating video watch time has been highlighted by the rising importance of (short) video recommendation, which has become a core product of mainstream social media platforms. Modeling video watch time, however, has been challenged by the complexity of user-video interaction, such as different user behavior modes in watching the recommended videos and varying watching probabilities over the video horizon. Despite the importance and challenges, existing literature on modeling video watch time mostly focuses on relatively black-box mechanical enhancement of the classical regression/classification losses, without factoring in user behavior in a principled manner. In this paper, we for the first time take on a user-centric perspective to model video watch time, from which we propose a white-box statistical framework that directly translates various user behavior assumptions in watching (short) videos into statistical watch time models. These behavior assumptions are portrayed by our domain knowledge on users' behavior modes in video watching. We further employ bucketization to cope with user's non-stationary watching probability over the video horizon, which additionally helps to respect the constraint of video length and facilitate the practical compatibility between the continuous regression event of watch time and other binary classification events. We test our models extensively on two public datasets, a large-scale offline industrial dataset, and an online A/B test on a short video platform with hundreds of millions of daily-active users. On all experiments, our models perform competitively against strong relevant baselines, demonstrating the efficacy of our user-centric perspective and proposed framework.
- Abstract(参考訳): ビデオ視聴時間の推定の重要性は、主流のソーシャルメディアプラットフォームの中核となる(短い)ビデオレコメンデーションの重要性の高まりによって強調されている。
しかし、ビデオ視聴時間のモデル化は、推奨ビデオを見る際の様々なユーザー行動モードや、ビデオの地平線上での観察可能性の変化など、ユーザーとビデオのインタラクションの複雑さによって困難になってきた。
その重要性と課題にもかかわらず、ビデオ視聴時間モデリングに関する既存の文献は、主に、伝統的な回帰/分類損失の比較的ブラックボックスの機械的強化に焦点を当てている。
本稿では,ユーザ中心の視点で初めてビデオ視聴時間をモデル化し,ビデオ視聴時の様々なユーザの行動仮定を直接統計視聴時間モデルに変換するホワイトボックス統計フレームワークを提案する。
これらの行動仮定は、ビデオ視聴におけるユーザの行動モードに関するドメイン知識によって表される。
さらに、ビデオ水平線上でのユーザの非定常視聴確率に対応するためにバケット化を採用し、ビデオ長の制約を尊重し、ウォッチタイムの連続回帰イベントと他のバイナリ分類イベントとの現実的な互換性を促進する。
当社のモデルは、2つのパブリックデータセット、大規模なオフライン産業データセット、および数億人のデイリーアクティブユーザを持つ短いビデオプラットフォーム上でオンラインA/Bテストで広範囲にテストしています。
あらゆる実験において、我々のモデルは、強い関連するベースラインに対して競争力を発揮し、ユーザ中心の視点と提案されたフレームワークの有効性を実証する。
関連論文リスト
- Conditional Quantile Estimation for Uncertain Watch Time in Short-Video Recommendation [2.3166433227657186]
本稿では,時計時間全体の条件分布をモデル化するための条件量子推定(CQE)フレームワークを提案する。
CQEは、ユーザとビデオのペアごとに複雑なウォッチタイム分布を特徴付け、ユーザの振る舞いを理解するための柔軟で包括的なアプローチを提供する。
特に、KuaiShowにおけるCQEのオンライン展開は、主要な評価指標を大幅に改善した。
論文 参考訳(メタデータ) (2024-07-17T00:25:35Z) - VANE-Bench: Video Anomaly Evaluation Benchmark for Conversational LMMs [64.60035916955837]
VANE-Benchはビデオの異常や矛盾を検出するためのビデオLMMの熟練度を評価するために設計されたベンチマークである。
我々のデータセットは、既存の最先端のテキスト・ビデオ生成モデルを用いて合成された一連のビデオから構成される。
我々は、このベンチマークタスクにおいて、オープンソースとクローズドソースの両方で既存の9つのビデオLMMを評価し、ほとんどのモデルが微妙な異常を効果的に識別するのに困難に直面することを発見した。
論文 参考訳(メタデータ) (2024-06-14T17:59:01Z) - Predicting Long-horizon Futures by Conditioning on Geometry and Time [49.86180975196375]
我々は,過去を前提とした将来のセンサ観測の課題を探求する。
マルチモーダリティを扱える画像拡散モデルの大規模事前学習を活用する。
我々は、屋内と屋外のシーンにまたがる多様なビデオのセットについて、ビデオ予測のためのベンチマークを作成する。
論文 参考訳(メタデータ) (2024-04-17T16:56:31Z) - Dynamic Erasing Network Based on Multi-Scale Temporal Features for
Weakly Supervised Video Anomaly Detection [103.92970668001277]
弱教師付きビデオ異常検出のための動的消去ネットワーク(DE-Net)を提案する。
まず,異なる長さのセグメントから特徴を抽出できるマルチスケール時間モデリングモジュールを提案する。
そして,検出された異常の完全性を動的に評価する動的消去戦略を設計する。
論文 参考訳(メタデータ) (2023-12-04T09:40:11Z) - A Lightweight Video Anomaly Detection Model with Weak Supervision and Adaptive Instance Selection [14.089888316857426]
本稿では,弱教師付きビデオ異常検出に焦点をあてる。
我々は,軽量なビデオ異常検出モデルを開発した。
我々のモデルは、最先端の手法と比較して、AUCのスコアに匹敵するか、さらに優れていることを示す。
論文 参考訳(メタデータ) (2023-10-09T01:23:08Z) - Towards Debiasing Frame Length Bias in Text-Video Retrieval via Causal
Intervention [72.12974259966592]
トリミングビデオクリップのトレーニングセットとテストセットのフレーム長差による時間偏差について,一意かつ体系的に検討した。
Epic-Kitchens-100, YouCook2, MSR-VTTデータセットについて, 因果脱バイアス法を提案し, 広範な実験およびアブレーション研究を行った。
論文 参考訳(メタデータ) (2023-09-17T15:58:27Z) - Self-Supervised Video Representation Learning via Latent Time Navigation [12.721647696921865]
自己教師付きビデオ表現学習は、1つのビデオの異なる時間セグメント間の類似性を最大化することを目的としている。
微粒な動きを捉えるために、LTN(Latent Time Navigation)を提案する。
実験により,LTNによる映像表現の学習は,動作分類の性能を一貫して向上させることが示された。
論文 参考訳(メタデータ) (2023-05-10T20:06:17Z) - Mitigating Representation Bias in Action Recognition: Algorithms and
Benchmarks [76.35271072704384]
ディープラーニングモデルは、稀なシーンやオブジェクトを持つビデオに適用すると、パフォーマンスが悪くなります。
この問題にはアルゴリズムとデータセットの2つの異なる角度から対処する。
偏りのある表現は、他のデータセットやタスクに転送するとより一般化できることを示す。
論文 参考訳(メタデータ) (2022-09-20T00:30:35Z) - A Deep Graph Reinforcement Learning Model for Improving User Experience
in Live Video Streaming [7.852895577861326]
本稿では,ライブビデオストリーミングイベントにおけるユーザエクスペリエンスの予測と改善を目的としたディープグラフ強化学習モデルを提案する。
我々のモデルは、最初のストリーミング分で、高品質な体験を持つ視聴者を少なくとも75%増加させることができる。
論文 参考訳(メタデータ) (2021-07-28T19:53:05Z) - Multiview Pseudo-Labeling for Semi-supervised Learning from Video [102.36355560553402]
本稿では,映像における半教師付き学習において,外観と動作情報という形で相補的視点を用いた新しい枠組みを提案する。
提案手法は複数のビューを対象とするが,それでも外観と動作の入力間で共有されるモデルを訓練する。
複数のビデオ認識データセットにおいて,本手法は教師あり映像表現学習における従来の標準ベンチマークと比較し,教師あり映像表現学習における従来の手法と比較した。
論文 参考訳(メタデータ) (2021-04-01T17:59:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。