論文の概要: Counteracting Duration Bias in Video Recommendation via Counterfactual Watch Time
- arxiv url: http://arxiv.org/abs/2406.07932v2
- Date: Thu, 13 Jun 2024 09:08:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 22:08:56.951515
- Title: Counteracting Duration Bias in Video Recommendation via Counterfactual Watch Time
- Title(参考訳): ビデオレコメンデーションにおける時計時間による時間長の防止
- Authors: Haiyuan Zhao, Guohao Cai, Jieming Zhu, Zhenhua Dong, Jun Xu, Ji-Rong Wen,
- Abstract要約: 視聴時間の予測は時間のバイアスに悩まされ、ユーザーの興味を正確に反映する能力を妨げる。
対実時計モデル (CWM) が提案され、CWTはユーザーがビデオレコメンデーションシステムから最大限の利益を得る時間に等しいことを示した。
- 参考スコア(独自算出の注目度): 63.844468159126826
- License:
- Abstract: In video recommendation, an ongoing effort is to satisfy users' personalized information needs by leveraging their logged watch time. However, watch time prediction suffers from duration bias, hindering its ability to reflect users' interests accurately. Existing label-correction approaches attempt to uncover user interests through grouping and normalizing observed watch time according to video duration. Although effective to some extent, we found that these approaches regard completely played records (i.e., a user watches the entire video) as equally high interest, which deviates from what we observed on real datasets: users have varied explicit feedback proportion when completely playing videos. In this paper, we introduce the counterfactual watch time(CWT), the potential watch time a user would spend on the video if its duration is sufficiently long. Analysis shows that the duration bias is caused by the truncation of CWT due to the video duration limitation, which usually occurs on those completely played records. Besides, a Counterfactual Watch Model (CWM) is proposed, revealing that CWT equals the time users get the maximum benefit from video recommender systems. Moreover, a cost-based transform function is defined to transform the CWT into the estimation of user interest, and the model can be learned by optimizing a counterfactual likelihood function defined over observed user watch times. Extensive experiments on three real video recommendation datasets and online A/B testing demonstrated that CWM effectively enhanced video recommendation accuracy and counteracted the duration bias.
- Abstract(参考訳): ビデオレコメンデーションでは、ログ化されたウォッチタイムを活用することで、ユーザのパーソナライズされた情報ニーズを満たすための努力が進行中である。
しかし、監視時間の予測は時間バイアスに悩まされ、ユーザの興味を正確に反映する能力が損なわれる。
既存のラベル補正手法は、ビデオの長さに応じて観察された視聴時間を正規化し、グループ化することでユーザーの興味を明らかにする。
ある程度効果はあるものの、これらのアプローチは、完全に再生されたレコード(つまり、ユーザーがビデオ全体を見る)を同様に高い関心事と見なしている。
本稿では,時間が十分長い場合,ユーザがビデオに費やす可能性のある監視時間(CWT)について紹介する。
解析によると、時間バイアスは、通常完全に再生されたレコードに発生するビデオの長さ制限によるCWTの切り離しによって引き起こされる。
さらに、CWTがビデオレコメンデーションシステムから最大限の利益を得る時間に等しいことを示すCWM(Counterfactual Watch Model)が提案されている。
さらに、コストベースの変換関数を定義して、CWTをユーザ関心の推定に変換し、観察されたユーザウォッチ時間上で定義された対実可能性関数を最適化することにより、モデルを学習することができる。
3つの実ビデオレコメンデーションデータセットとオンラインA/Bテストによる大規模な実験により、CWMはビデオレコメンデーションの精度を効果的に向上し、持続時間バイアスに反することを示した。
関連論文リスト
- Conditional Quantile Estimation for Uncertain Watch Time in Short-Video Recommendation [2.3166433227657186]
本稿では,時計時間全体の条件分布をモデル化するための条件量子推定(CQE)フレームワークを提案する。
CQEは、ユーザとビデオのペアごとに複雑なウォッチタイム分布を特徴付け、ユーザの振る舞いを理解するための柔軟で包括的なアプローチを提供する。
特に、KuaiShowにおけるCQEのオンライン展開は、主要な評価指標を大幅に改善した。
論文 参考訳(メタデータ) (2024-07-17T00:25:35Z) - Dynamic Erasing Network Based on Multi-Scale Temporal Features for
Weakly Supervised Video Anomaly Detection [103.92970668001277]
弱教師付きビデオ異常検出のための動的消去ネットワーク(DE-Net)を提案する。
まず,異なる長さのセグメントから特徴を抽出できるマルチスケール時間モデリングモジュールを提案する。
そして,検出された異常の完全性を動的に評価する動的消去戦略を設計する。
論文 参考訳(メタデータ) (2023-12-04T09:40:11Z) - Multiscale Video Pretraining for Long-Term Activity Forecasting [67.06864386274736]
マルチスケールビデオプレトレーニングは、複数の時間スケールで将来のビデオクリップの文脈化された表現を予測することを学ぶことによって、予測のための堅牢な表現を学習する。
MVPは、ビデオ内のアクションは、通常、短い時間スケールでアトミックアクションが起こり、より複雑なアクションがより長い時間スケールで発生する、マルチスケールな性質を持つ、という私たちの観察に基づいています。
Ego4DとEpic-Kitchens-55/100データセットにわたる包括的な実験では、MVPが最先端のメソッドをかなりのマージンで上回っていることが示されています。
論文 参考訳(メタデータ) (2023-07-24T14:55:15Z) - Self-Supervised Video Representation Learning via Latent Time Navigation [12.721647696921865]
自己教師付きビデオ表現学習は、1つのビデオの異なる時間セグメント間の類似性を最大化することを目的としている。
微粒な動きを捉えるために、LTN(Latent Time Navigation)を提案する。
実験により,LTNによる映像表現の学習は,動作分類の性能を一貫して向上させることが示された。
論文 参考訳(メタデータ) (2023-05-10T20:06:17Z) - Mitigating Representation Bias in Action Recognition: Algorithms and
Benchmarks [76.35271072704384]
ディープラーニングモデルは、稀なシーンやオブジェクトを持つビデオに適用すると、パフォーマンスが悪くなります。
この問題にはアルゴリズムとデータセットの2つの異なる角度から対処する。
偏りのある表現は、他のデータセットやタスクに転送するとより一般化できることを示す。
論文 参考訳(メタデータ) (2022-09-20T00:30:35Z) - Time Is MattEr: Temporal Self-supervision for Video Transformers [72.42240984211283]
我々は、時間的ダイナミクスをよりよく学習するために、ビデオモデルのための単純で効果的な自己教師型タスクを設計する。
ビデオフレームの時間順序を余分な自己監督として学習し、ランダムにシャッフルされたフレームを低信頼出力に強制する。
様々なビデオ行動認識タスクにおいて,本手法の有効性と最先端のビデオ変換器との互換性を実証する。
論文 参考訳(メタデータ) (2022-07-19T04:44:08Z) - Learning Heterogeneous Temporal Patterns of User Preference for Timely
Recommendation [15.930016839929047]
我々はTimelyRecと呼ばれるタイムリーなレコメンデーションのための新しいレコメンデーションシステムを提案する。
TimelyRecでは、2つのエンコーダのカスケードが、各エンコーダに対して提案されたアテンションモジュールを使用して、ユーザの好みの時間パターンをキャプチャする。
実世界のデータセットにおける項目推薦シナリオと項目決定推薦シナリオの実験により,timelyrecの優位性が示された。
論文 参考訳(メタデータ) (2021-04-29T08:37:30Z) - Composable Augmentation Encoding for Video Representation Learning [94.2358972764708]
自己教師型ビデオ表現学習におけるコントラスト手法に着目した。
対照的な学習における一般的なパラダイムは、同じインスタンスで異なるデータビューをサンプリングし、異なるデータインスタンスを負として、ポジティブペアを構築することである。
そこで我々は,拡張パラメータの列を明示的に提供する,拡張対応型コントラスト学習フレームワークを提案する。
提案手法は,特定の空間的あるいは時間的拡張に関する情報をエンコードすると同時に,多数のビデオベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-04-01T16:48:53Z) - Self-supervised Temporal Discriminative Learning for Video
Representation Learning [39.43942923911425]
注釈付き大規模ビデオアクションデータセットをトレーニングに使わずに、時間差分の特徴を抽出することは困難である。
本稿では,ビデオに基づく時間識別学習フレームワークを自己指導型で提案する。
論文 参考訳(メタデータ) (2020-08-05T13:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。