論文の概要: Neural Graph Matching for Video Retrieval in Large-Scale Video-driven E-commerce
- arxiv url: http://arxiv.org/abs/2408.00346v1
- Date: Thu, 1 Aug 2024 07:31:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-04 21:25:51.891913
- Title: Neural Graph Matching for Video Retrieval in Large-Scale Video-driven E-commerce
- Title(参考訳): 大規模ビデオ駆動Eコマースにおけるビデオ検索のためのニューラルグラフマッチング
- Authors: Houye Ji, Ye Tang, Zhaoxin Chen, Lixi Deng, Jun Hu, Lei Su,
- Abstract要約: ビデオによるeコマースは、消費者の信頼を刺激し、販売を促進する大きな可能性を秘めている。
本稿では,ノードレベルのグラフマッチングと優先レベルのグラフマッチングを主とする,新しい二レベルグラフマッチングネットワーク(GMN)を提案する。
総合的な実験によって提案されたGMNの優位性を示し、最先端のアプローチよりも大幅に改善された。
- 参考スコア(独自算出の注目度): 5.534002182451785
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the rapid development of the short video industry, traditional e-commerce has encountered a new paradigm, video-driven e-commerce, which leverages attractive videos for product showcases and provides both video and item services for users. Benefitting from the dynamic and visualized introduction of items,video-driven e-commerce has shown huge potential in stimulating consumer confidence and promoting sales. In this paper, we focus on the video retrieval task, facing the following challenges: (1) Howto handle the heterogeneities among users, items, and videos? (2)How to mine the complementarity between items and videos for better user understanding? In this paper, we first leverage the dual graph to model the co-existing of user-video and user-item interactions in video-driven e-commerce and innovatively reduce user preference understanding to a graph matching problem. To solve it, we further propose a novel bi-level Graph Matching Network(GMN), which mainly consists of node- and preference-level graph matching. Given a user, node-level graph matching aims to match videos and items, while preference-level graph matching aims to match multiple user preferences extracted from both videos and items. Then the proposed GMN can generate and improve user embedding by aggregating matched nodes or preferences from the dual graph in a bi-level manner. Comprehensive experiments show the superiority of the proposed GMN with significant improvements over state-of-the-art approaches (e.g., AUC+1.9% and CTR+7.15%). We have developed it on a well-known video-driven e-commerce platform, serving hundreds of millions of users every day
- Abstract(参考訳): ショートビデオ産業の急速な発展に伴い、従来のeコマースは新しいパラダイムであるビデオ駆動型eコマースに遭遇した。
ダイナミックで視覚化されたアイテムの導入から、ビデオ駆動のeコマースは、消費者の信頼を刺激し、販売を促進する大きな可能性を秘めている。
本稿では,(1)ユーザ,アイテム,ビデオの不均一性をどう扱うか,という課題に直面する,ビデオ検索の課題に焦点をあてる。
(2) 利用者の理解を深めるために、アイテムとビデオの相補性をどう掘り下げるか?
本稿では,ビデオ駆動型電子商取引におけるユーザ・ビデオ・ユーザ・イテム相互作用の共存をモデル化し,ユーザの嗜好理解をグラフマッチング問題に革新的に還元する。
そこで本研究では,ノードレベルのグラフマッチングと優先レベルのグラフマッチングを主目的とする,新しい二レベルグラフマッチングネットワーク(GMN)を提案する。
ユーザが指定したノードレベルのグラフマッチングは、ビデオとアイテムのマッチングを目標とし、優先度レベルのグラフマッチングは、ビデオとアイテムの両方から抽出された複数のユーザの好みにマッチする。
提案したGMNは、一致したノードや好みを2レベルにまとめることで、ユーザ埋め込みを生成および改善することができる。
総合的な実験により、提案されたGMNは最先端のアプローチ(例えば、AUC+1.9%、CTR+7.15%)よりも大幅に改善された。
私たちはよく知られたビデオ駆動型Eコマースプラットフォームで開発し、毎日数億人のユーザーにサービスを提供しています。
関連論文リスト
- CoActionGraphRec: Sequential Multi-Interest Recommendations Using Co-Action Graphs [4.031699584957737]
eBayのデータは、他のEコマースサイトよりも桁違いに多い。
共作用グラフ層を利用したテキストベースの2tower深層学習モデル(アイテムタワーとユーザタワー)を提案する。
項目タワーでは、各項目をその共作用項目を用いて表現し、グラフニューラルネットワークコンポーネントによって完全に活用される協調作用グラフで協調的な信号をキャプチャする。
論文 参考訳(メタデータ) (2024-10-15T10:11:18Z) - LightSAGE: Graph Neural Networks for Large Scale Item Retrieval in
Shopee's Advertisement Recommendation [2.1165011830664677]
我々は、グラフ構築、モデリング、データ歪の扱いにおいて、単純で斬新でインパクトに富んだテクニックを紹介します。
我々は,強信号ユーザ行動と高精度協調フィルタリング(CF)アルゴリズムを組み合わせることで,高品質な項目グラフを構築する。
そこで我々はLightSAGEと呼ばれる新しいGNNアーキテクチャを開発し、ベクトル探索のための高品質なアイテムの埋め込みを生成する。
論文 参考訳(メタデータ) (2023-10-30T09:57:06Z) - A Unified Model for Video Understanding and Knowledge Embedding with
Heterogeneous Knowledge Graph Dataset [47.805378137676605]
マルチモーダルビデオエンティティと実りある常識関係を含む異種データセットを提案する。
実験により,映像理解の埋め込みと事実知識を組み合わせることで,コンテンツに基づく映像検索性能が向上することが示唆された。
また、VRTやVRVタスクにおいて従来のKGEベースの手法よりも優れた知識グラフの埋め込みを生成するのに役立つ。
論文 参考訳(メタデータ) (2022-11-19T09:00:45Z) - GIFT: Graph-guIded Feature Transfer for Cold-Start Video Click-Through
Rate Prediction [47.06479882277151]
短いビデオは中国の急速な成長を目撃し、Taobaoのようなeコマースプラットフォームにおける製品の販売を促進する有望な市場を見せている。
コンテンツの鮮度を確保するために、プラットフォームは毎日多数の新しいビデオをリリースする必要がある。
コールドスタートビデオに関連するウォームアップビデオの豊富な情報を活用するために,効率的なグラフガイド機能転送システムであるGIFTを提案する。
論文 参考訳(メタデータ) (2022-02-21T09:31:35Z) - Concept-Aware Denoising Graph Neural Network for Micro-Video
Recommendation [30.67251766249372]
マイクロビデオレコメンデーションのための新しい概念認識型グラフニューラルネットワーク(CONDE)を提案する。
提案したCONDEは、既存の最先端ソリューションよりも大幅に優れたレコメンデーション性能を実現する。
論文 参考訳(メタデータ) (2021-09-28T07:02:52Z) - Pre-training Graph Transformer with Multimodal Side Information for
Recommendation [82.4194024706817]
本稿では,項目側情報とその関連性を考慮した事前学習戦略を提案する。
我々はMCNSamplingという新しいサンプリングアルゴリズムを開発し、各項目のコンテキスト近傍を選択する。
The proposed Pre-trained Multimodal Graph Transformer (PMGT) learns item representations with two objectives: 1) graph structure reconstruction, 2) masked node feature reconstruction。
論文 参考訳(メタデータ) (2020-10-23T10:30:24Z) - Comprehensive Information Integration Modeling Framework for Video
Titling [124.11296128308396]
エンド・ツー・エンド・エンド・モデリング・フレームワークにおいて、消費者生成ビデオの内容、消費者から提供される物語コメント文、製品属性などの包括的情報ソースを統合する。
この問題に対処するため,提案手法は,粒度レベルの相互作用モデリングと抽象レベルのストーリーライン要約という2つのプロセスから構成される。
グローバルなeコマースプラットフォームであるTaobaoの実際のデータから、大規模なデータセットを収集します。
論文 参考訳(メタデータ) (2020-06-24T10:38:15Z) - Graph Convolution Machine for Context-aware Recommender System [59.50474932860843]
グラフ畳み込みの利点を文脈認識推薦システム(CARS)に拡張する。
我々は、エンコーダ、グラフ畳み込み層、デコーダの3つのコンポーネントからなるエンドツーエンドフレームワークである textitGraph Convolution Machine (GCM) を提案する。
我々はYelpとAmazonの3つの実世界のデータセットで実験を行い、GCMの有効性とCARSのためのグラフ畳み込みの利点を検証する。
論文 参考訳(メタデータ) (2020-01-30T15:32:08Z) - Zero-Shot Video Object Segmentation via Attentive Graph Neural Networks [150.5425122989146]
本研究は、ゼロショットビデオオブジェクトセグメンテーション(ZVOS)のための新しい注意グラフニューラルネットワーク(AGNN)を提案する。
AGNNは、フレームをノードとして効率的に表現し、任意のフレームペア間の関係をエッジとして表現するために、完全に連結されたグラフを構築している。
3つのビデオセグメンテーションデータセットの実験結果は、AGNNがそれぞれのケースに新しい最先端を設定していることを示している。
論文 参考訳(メタデータ) (2020-01-19T10:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。