論文の概要: Enhancing Live Broadcast Engagement: A Multi-modal Approach to Short Video Recommendations Using MMGCN and User Preferences
- arxiv url: http://arxiv.org/abs/2506.23085v1
- Date: Sun, 29 Jun 2025 04:50:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.709892
- Title: Enhancing Live Broadcast Engagement: A Multi-modal Approach to Short Video Recommendations Using MMGCN and User Preferences
- Title(参考訳): ライブ放送エンゲージメントの強化:MMGCNとユーザ嗜好を用いたショートビデオレコメンデーションへのマルチモーダルアプローチ
- Authors: Saeid Aghasoleymani Najafabadi,
- Abstract要約: 本稿では,MMGCN(Multi-modal Graph Convolutional Networks)をユーザの好みに組み込んだ短いビデオレコメンデーションシステムを提案する。
個人の興味に合ったパーソナライズされたレコメンデーションを提供するために,提案システムはユーザインタラクションデータ,ビデオコンテンツ機能,コンテキスト情報などを考慮に入れている。
システムの有効性を評価するために、Kwai、TikTok、MovieLensの3つのデータセットが使用されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The purpose of this paper is to explore a multi-modal approach to enhancing live broadcast engagement by developing a short video recommendation system that incorporates Multi-modal Graph Convolutional Networks (MMGCN) with user preferences. In order to provide personalized recommendations tailored to individual interests, the proposed system takes into account user interaction data, video content features, and contextual information. With the aid of a hybrid approach combining collaborative filtering and content-based filtering techniques, the system is able to capture nuanced relationships between users, video attributes, and engagement patterns. Three datasets are used to evaluate the effectiveness of the system: Kwai, TikTok, and MovieLens. Compared to baseline models, such as DeepFM, Wide & Deep, LightGBM, and XGBoost, the proposed MMGCN-based model shows superior performance. A notable feature of the proposed model is that it outperforms all baseline methods in capturing diverse user preferences and making accurate, personalized recommendations, resulting in a Kwai F1 score of 0.574, a Tiktok F1 score of 0.506, and a MovieLens F1 score of 0.197. We emphasize the importance of multi-modal integration and user-centric approaches in advancing recommender systems, emphasizing the role they play in enhancing content discovery and audience interaction on live broadcast platforms.
- Abstract(参考訳): 本研究の目的は,MMGCN(Multi-modal Graph Convolutional Networks)をユーザ好みに組み込んだショートビデオレコメンデーションシステムを開発することで,ライブ放送のエンゲージメントを高めるためのマルチモーダルアプローチを検討することである。
個人の興味に合ったパーソナライズされたレコメンデーションを提供するために,提案システムはユーザインタラクションデータ,ビデオコンテンツ機能,コンテキスト情報などを考慮に入れている。
協調フィルタリングとコンテンツベースのフィルタリング技術を組み合わせたハイブリッドアプローチにより、システムはユーザ間の微妙な関係、ビデオ属性、エンゲージメントパターンをキャプチャできる。
システムの有効性を評価するために、Kwai、TikTok、MovieLensの3つのデータセットが使用されている。
DeepFM、Wide & Deep、LightGBM、XGBoostといったベースラインモデルと比較して、提案されたMMGCNベースのモデルは優れた性能を示している。
提案モデルの特筆すべき特徴は、多様なユーザの好みを把握し、正確でパーソナライズされたレコメンデーションを行うことで、クウェーF1スコアが0.574、ティックF1スコアが0.506、MovieLens F1スコアが0.197である。
我々は,レコメンデーションシステムの推進におけるマルチモーダル統合とユーザ中心のアプローチの重要性を強調し,ライブ放送プラットフォームにおけるコンテンツ発見とオーディエンスインタラクションの促進において彼らが果たす役割を強調した。
関連論文リスト
- CLaMR: Contextualized Late-Interaction for Multimodal Content Retrieval [70.9990850395981]
CLaMRは、ビデオフレーム、書き起こされた音声、画面上のテキスト、メタデータの4つのモダリティを共同でインデックスするマルチモーダルな遅延相互作用レトリバーである。
CLaMRは2つの重要な革新を通じて動的モダリティ選択を強化するために訓練されている。
論文 参考訳(メタデータ) (2025-06-06T15:02:30Z) - Enhancing User Intent for Recommendation Systems via Large Language Models [0.0]
DUIPはLSTMネットワークとLLM(Large Language Models)を組み合わせた新しいフレームワークで、ユーザの意図を動的に把握し、パーソナライズされたアイテムレコメンデーションを生成する。
この結果から,DUIPは次世代レコメンデーションシステムにとって有望なアプローチであり,クロスモーダルレコメンデーションとスケーラビリティのさらなる向上の可能性が示唆された。
論文 参考訳(メタデータ) (2025-01-18T20:35:03Z) - RecLM: Recommendation Instruction Tuning [17.780484832381994]
本稿では,大規模言語モデルと協調フィルタリングをシームレスに統合するモデル非依存の指導訓練パラダイムを提案する。
提案した$underlineRec$ommendationは、慎重に設計された強化学習報酬関数により、ユーザの好みの多様性を捕捉する。
論文 参考訳(メタデータ) (2024-12-26T17:51:54Z) - GaVaMoE: Gaussian-Variational Gated Mixture of Experts for Explainable Recommendation [55.937636188796475]
GaVaMoEは、説明可能なレコメンデーションのための新しいフレームワークである。
特定のユーザータイプや好みのカスタマイズされた説明を生成する。
疎いユーザ-イテムインタラクションのシナリオでは、堅牢なパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-10-15T17:59:30Z) - DiffMM: Multi-Modal Diffusion Model for Recommendation [19.43775593283657]
DiffMMと呼ばれる新しいマルチモーダルグラフ拡散モデルを提案する。
本フレームワークは,モダリティを意識したグラフ拡散モデルとクロスモーダルコントラスト学習パラダイムを統合し,モダリティを意識したユーザ表現学習を改善する。
論文 参考訳(メタデータ) (2024-06-17T17:35:54Z) - A Large Language Model Enhanced Sequential Recommender for Joint Video and Comment Recommendation [77.42486522565295]
我々は、パーソナライズされたビデオとコメントのレコメンデーションを共同で行うLSVCRと呼ばれる新しいレコメンデーション手法を提案する。
提案手法は,逐次レコメンデーション(SR)モデルと補足型大規模言語モデル(LLM)レコメンデーションという2つの重要なコンポーネントから構成される。
特に、コメント視聴時間の4.13%が大幅に向上した。
論文 参考訳(メタデータ) (2024-03-20T13:14:29Z) - Network-Based Video Recommendation Using Viewing Patterns and Modularity Analysis: An Integrated Framework [1.2289361708127877]
本研究では、VODプラットフォームにおけるパーソナライゼーションを高めるために、視聴率などの暗黙のユーザデータとソーシャルネットワーク分析を組み合わせることによって、新しいアプローチを導入する。
このシステムはドキュメンタリー中心のVODプラットフォームで評価され、4ヶ月で328人のユーザーを獲得した。
その結果,クリックスルー率(CTR)が63%,ビューコンプリート率が24%,ユーザ満足度が17%向上した。
論文 参考訳(メタデータ) (2023-08-24T12:45:02Z) - Ordinal Graph Gamma Belief Network for Social Recommender Systems [54.9487910312535]
我々は,階層型ベイズモデルであるオーディナルグラフファクター解析(OGFA)を開発し,ユーザ・イテムとユーザ・ユーザインタラクションを共同でモデル化する。
OGFAは、優れたレコメンデーションパフォーマンスを達成するだけでなく、代表ユーザの好みに応じた解釈可能な潜在因子も抽出する。
我々はOGFAを,マルチ確率層深層確率モデルであるオーディナルグラフガンマ信念ネットワークに拡張する。
論文 参考訳(メタデータ) (2022-09-12T09:19:22Z) - Modeling High-order Interactions across Multi-interests for Micro-video
Reommendation [65.16624625748068]
利用者の興味表現を高めるためのセルフオーバーCoアテンションモジュールを提案します。
特に、まず相関パターンを異なるレベルでモデル化し、次に自己注意を使って特定のレベルで相関パターンをモデル化します。
論文 参考訳(メタデータ) (2021-04-01T07:20:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。