論文の概要: Not All Videos Become Outdated: Short-Video Recommendation by Learning to Deconfound Release Interval Bias
- arxiv url: http://arxiv.org/abs/2408.17332v1
- Date: Fri, 30 Aug 2024 14:48:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 16:53:45.688655
- Title: Not All Videos Become Outdated: Short-Video Recommendation by Learning to Deconfound Release Interval Bias
- Title(参考訳): すべてのビデオが時代遅れになるわけではない: インターバルバイアスを解き明かすための短いビデオレコメンデーション
- Authors: Lulu Dong, Guoxiu He, Aixin Sun,
- Abstract要約: 我々はLDRI(Learning to Deconfound the Release Interval Bias)と呼ばれるモデルに依存しない因果アーキテクチャを提案する。
LDRIはマッチングモデルとビデオ遅延感度パーセプトロンの同時学習を可能にする。
2つのベンチマークの実験では、LDRIがバックボーンモデルより一貫して優れていることが示されている。
- 参考スコア(独自算出の注目度): 36.412843778588105
- License:
- Abstract: Short-video recommender systems often exhibit a biased preference to recently released videos. However, not all videos become outdated; certain classic videos can still attract user's attention. Such bias along temporal dimension can be further aggravated by the matching model between users and videos, because the model learns from preexisting interactions. From real data, we observe that different videos have varying sensitivities to recency in attracting users' attention. Our analysis, based on a causal graph modeling short-video recommendation, suggests that the release interval serves as a confounder, establishing a backdoor path between users and videos. To address this confounding effect, we propose a model-agnostic causal architecture called Learning to Deconfound the Release Interval Bias (LDRI). LDRI enables jointly learning of the matching model and the video recency sensitivity perceptron. In the inference stage, we apply a backdoor adjustment, effectively blocking the backdoor path by intervening on each video. Extensive experiments on two benchmarks demonstrate that LDRI consistently outperforms backbone models and exhibits superior performance against state-of-the-art models. Additional comprehensive analyses confirm the deconfounding capability of LDRI.
- Abstract(参考訳): ショートビデオレコメンデータシステムは、最近リリースされたビデオに対してバイアスのある好みを示すことが多い。
しかし、すべてのビデオが時代遅れになるわけではない。
このようなバイアスは、既存のインタラクションから学習するため、ユーザとビデオのマッチングモデルによってさらに増大する可能性がある。
実データから,ユーザの注意を惹きつけるために,異なるビデオに様々な感性があることが明らかとなった。
我々の分析は、因果グラフモデリングによるショートビデオレコメンデーションに基づいて、リリース間隔が共同創設者として機能し、ユーザとビデオ間のバックドアパスを確立することを示唆している。
この欠点に対処するため,LDRI (Learning to Deconfound the Release Interval Bias) と呼ばれるモデルに依存しない因果アーキテクチャを提案する。
LDRIはマッチングモデルとビデオ遅延感度パーセプトロンの同時学習を可能にする。
推論段階では、バックドア調整を適用し、各ビデオに介入することで、バックドア経路を効果的にブロックする。
2つのベンチマークによる大規模な実験により、LDRIはバックボーンモデルより一貫して優れ、最先端モデルに対して優れた性能を示すことが示された。
さらに総合的な分析により,LDRIの分解能が確認された。
関連論文リスト
- Dynamic Erasing Network Based on Multi-Scale Temporal Features for
Weakly Supervised Video Anomaly Detection [103.92970668001277]
弱教師付きビデオ異常検出のための動的消去ネットワーク(DE-Net)を提案する。
まず,異なる長さのセグメントから特徴を抽出できるマルチスケール時間モデリングモジュールを提案する。
そして,検出された異常の完全性を動的に評価する動的消去戦略を設計する。
論文 参考訳(メタデータ) (2023-12-04T09:40:11Z) - Towards Debiasing Frame Length Bias in Text-Video Retrieval via Causal
Intervention [72.12974259966592]
トリミングビデオクリップのトレーニングセットとテストセットのフレーム長差による時間偏差について,一意かつ体系的に検討した。
Epic-Kitchens-100, YouCook2, MSR-VTTデータセットについて, 因果脱バイアス法を提案し, 広範な実験およびアブレーション研究を行った。
論文 参考訳(メタデータ) (2023-09-17T15:58:27Z) - Towards Video Anomaly Retrieval from Video Anomaly Detection: New
Benchmarks and Model [70.97446870672069]
ビデオ異常検出(VAD)はその潜在的な応用により注目されている。
Video Anomaly Retrieval (VAR)は、関連のある動画をモダリティによって実用的に検索することを目的としている。
一般的な異常データセットの上に構築されたUCFCrime-ARとXD-Violenceの2つのベンチマークを示す。
論文 参考訳(メタデータ) (2023-07-24T06:22:37Z) - Mitigating Representation Bias in Action Recognition: Algorithms and
Benchmarks [76.35271072704384]
ディープラーニングモデルは、稀なシーンやオブジェクトを持つビデオに適用すると、パフォーマンスが悪くなります。
この問題にはアルゴリズムとデータセットの2つの異なる角度から対処する。
偏りのある表現は、他のデータセットやタスクに転送するとより一般化できることを示す。
論文 参考訳(メタデータ) (2022-09-20T00:30:35Z) - Anomaly detection in surveillance videos using transformer based
attention model [3.2968779106235586]
本研究は、トレーニングビデオにおける異常セグメントの注釈付けを避けるために、弱教師付き戦略を用いることを示唆する。
提案するフレームワークは,実世界のデータセット,すなわちShanghaiTech Campusデータセットで検証される。
論文 参考訳(メタデータ) (2022-06-03T12:19:39Z) - Interventional Video Grounding with Dual Contrastive Learning [16.0734337895897]
ビデオグラウンドティングは、与えられたテキストクエリのために、未編集のビデオから瞬間をローカライズすることを目的としている。
本稿では、因果推論の観点から新しいパラダイムを提案し、モデルとデータの背後にある因果関係を明らかにする。
また、テキストとビデオの整合性を改善するために、二重のコントラスト学習アプローチを導入しています。
論文 参考訳(メタデータ) (2021-06-21T12:11:28Z) - Deconfounded Video Moment Retrieval with Causal Intervention [80.90604360072831]
本研究は,ビデオ中の特定のモーメントをテキストクエリに従ってローカライズすることを目的とした,ビデオモーメント検索(VMR)の課題に取り組む。
既存の手法は主に複雑な相互モーダル相互作用によるクエリとモーメントのマッチング関係をモデル化する。
本稿では,クエリとビデオコンテンツが予測に与える影響を捉えるために,構造因果モデルを構築する因果性に着想を得たVMRフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-03T01:33:26Z) - Exploring Relations in Untrimmed Videos for Self-Supervised Learning [17.670226952829506]
既存の自己教師付き学習手法は主にモデルトレーニングのためのトリミングビデオに依存している。
非時間ビデオ(ERUV)における探索関係(Exploring Relations in Untemporal Videos)と呼ばれる,新たな自己管理手法を提案する。
ERUVはよりリッチな表現を学習することができ、最先端の自己管理手法よりも優れたマージンを持つ。
論文 参考訳(メタデータ) (2020-08-06T15:29:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。