論文の概要: Generate the browsing process for short-video recommendation
- arxiv url: http://arxiv.org/abs/2504.08771v1
- Date: Wed, 02 Apr 2025 20:54:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-20 05:34:52.799933
- Title: Generate the browsing process for short-video recommendation
- Title(参考訳): ショートビデオレコメンデーションのためのブラウジングプロセスの生成
- Authors: Chao Feng, Yanze Zhang, Chenghao Zhang,
- Abstract要約: 本稿では,ショートビデオレコメンデーションのためのブラウジングプロセスを生成する新しいモデルを提案する。
ビデオレコメンデーションにおける視聴時間予測のための,ユーザエンゲージメントフィードバック(SCAM)による新しいセグメンションコンテンツ認識モデルを提案する。
- 参考スコア(独自算出の注目度): 10.110926043437113
- License:
- Abstract: This paper introduces a new model to generate the browsing process for short-video recommendation and proposes a novel Segment Content Aware Model via User Engagement Feedback (SCAM) for watch time prediction in video recommendation. Unlike existing methods that rely on multimodal features for video content understanding, SCAM implicitly models video content through users' historical watching behavior, enabling segment-level understanding without complex multimodal data. By dividing videos into segments based on duration and employing a Transformer-like architecture, SCAM captures the sequential dependence between segments while mitigating duration bias. Extensive experiments on industrial-scale and public datasets demonstrate SCAM's state-of-the-art performance in watch time prediction. The proposed approach offers a scalable and effective solution for video recommendation by leveraging segment-level modeling and users' engagement feedback.
- Abstract(参考訳): 本稿では,ショートビデオレコメンデーションのためのブラウジングプロセスを生成する新しいモデルを提案し,ビデオレコメンデーションにおける視聴時間予測のためのユーザエンゲージメントフィードバック(SCAM)を用いた新しいセグメンションコンテンツアウェアモデルを提案する。
ビデオコンテンツ理解のマルチモーダル機能に頼っている既存の方法とは異なり、SCAMはユーザの履歴視聴行動を通じてビデオコンテンツを暗黙的にモデル化し、複雑なマルチモーダルデータなしでセグメントレベルの理解を可能にする。
SCAMは、持続時間に基づいてビデオをセグメントに分割し、Transformerのようなアーキテクチャを採用することで、時間バイアスを緩和しながらセグメント間のシーケンシャルな依存関係をキャプチャする。
産業規模および公共データセットに関する大規模な実験は、監視時間予測におけるSCAMの最先端のパフォーマンスを実証している。
提案手法は、セグメントレベルのモデリングとユーザのエンゲージメントフィードバックを活用することにより、ビデオレコメンデーションにスケーラブルで効果的なソリューションを提供する。
関連論文リスト
- Direct Preference Optimization of Video Large Multimodal Models from Language Model Reward [118.65089648651308]
本稿では,映像コンテンツのプロキシとして詳細な動画キャプションを利用する新しいフレームワークを提案する。
本稿では,DPOによる報酬の調整により,ビデオ質問応答(QA)タスクにおけるビデオLMMの性能が著しく向上することを示す。
論文 参考訳(メタデータ) (2024-04-01T17:28:16Z) - Appearance-Based Refinement for Object-Centric Motion Segmentation [85.2426540999329]
本稿では,ビデオストリームの時間的一貫性を利用して,不正確なフローベース提案を補正する外観に基づく改善手法を提案する。
提案手法では,高精度なフロー予測マスクを模範として,シーケンスレベルの選択機構を用いる。
パフォーマンスは、DAVIS、YouTube、SegTrackv2、FBMS-59など、複数のビデオセグメンテーションベンチマークで評価されている。
論文 参考訳(メタデータ) (2023-12-18T18:59:51Z) - Conditional Modeling Based Automatic Video Summarization [70.96973928590958]
ビデオ要約の目的は、全体を伝えるのに必要な重要な情報を保持しながら、自動的にビデオを短縮することである。
映像要約法は視覚的連続性や多様性などの視覚的要因に依存しており、ビデオの内容を完全に理解するには不十分である。
映像要約への新たなアプローチは、人間が地上の真実のビデオ要約を作成する方法から得られる知見に基づいて提案されている。
論文 参考訳(メタデータ) (2023-11-20T20:24:45Z) - Revisiting Kernel Temporal Segmentation as an Adaptive Tokenizer for
Long-form Video Understanding [57.917616284917756]
実世界のビデオは、しばしば数分間の長さであり、意味的に一貫した長さのセグメントがある。
長いビデオを処理するための一般的なアプローチは、一定時間の長さの一様にサンプリングされたクリップにショートフォームビデオモデルを適用することである。
このアプローチは、固定長のクリップがしばしば冗長または非形式的であるため、長いビデオの基本的な性質を無視する。
論文 参考訳(メタデータ) (2023-09-20T18:13:32Z) - Causal Video Summarizer for Video Exploration [74.27487067877047]
Causal Video Summarizer (CVS) はビデオとクエリ間の対話的な情報をキャプチャするために提案されている。
既存のマルチモーダル映像要約データセットの評価から,提案手法が有効であることを示す実験結果が得られた。
論文 参考訳(メタデータ) (2023-07-04T22:52:16Z) - Video Summarization Based on Video-text Modelling [0.0]
ビデオのセマンティック表現を得るために,マルチモーダルな自己教師型学習フレームワークを提案する。
また,より優れた要約を生成するために,動画内の重要なコンテンツを段階的にピンポイントするプログレッシブな映像要約手法も導入する。
映像分類に基づく映像要約の質を客観的に評価する枠組みを提案する。
論文 参考訳(メタデータ) (2022-01-07T15:21:46Z) - Temporal Context Aggregation for Video Retrieval with Contrastive
Learning [81.12514007044456]
フレームレベルの特徴間の時間的長距離情報を組み込んだビデオ表現学習フレームワークTCAを提案する。
提案手法は,映像レベルの特徴を持つ最先端の手法に対して,FIVR-200Kでは17% mAPの大幅な性能上の優位性を示す。
論文 参考訳(メタデータ) (2020-08-04T05:24:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。