論文の概要: Disentangled Graph Collaborative Filtering
- arxiv url: http://arxiv.org/abs/2007.01764v1
- Date: Fri, 3 Jul 2020 15:37:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 06:13:59.255905
- Title: Disentangled Graph Collaborative Filtering
- Title(参考訳): 絡み合ったグラフ協調フィルタリング
- Authors: Xiang Wang, Hongye Jin, An Zhang, Xiangnan He, Tong Xu, Tat-Seng Chua
- Abstract要約: Disentangled Graph Collaborative Filtering (DGCF)は、インタラクションデータからユーザとアイテムの情報表現を学ぶための新しいモデルである。
ユーザ・イテムのインタラクション毎に意図を超越した分布をモデル化することにより、インテント・アウェアなインタラクショングラフと表現を反復的に洗練する。
DGCFはNGCF、DisenGCN、MacridVAEといった最先端モデルよりも大幅に改善されている。
- 参考スコア(独自算出の注目度): 100.26835145396782
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning informative representations of users and items from the interaction
data is of crucial importance to collaborative filtering (CF). Present
embedding functions exploit user-item relationships to enrich the
representations, evolving from a single user-item instance to the holistic
interaction graph. Nevertheless, they largely model the relationships in a
uniform manner, while neglecting the diversity of user intents on adopting the
items, which could be to pass time, for interest, or shopping for others like
families. Such uniform approach to model user interests easily results in
suboptimal representations, failing to model diverse relationships and
disentangle user intents in representations.
In this work, we pay special attention to user-item relationships at the
finer granularity of user intents. We hence devise a new model, Disentangled
Graph Collaborative Filtering (DGCF), to disentangle these factors and yield
disentangled representations. Specifically, by modeling a distribution over
intents for each user-item interaction, we iteratively refine the intent-aware
interaction graphs and representations. Meanwhile, we encourage independence of
different intents. This leads to disentangled representations, effectively
distilling information pertinent to each intent. We conduct extensive
experiments on three benchmark datasets, and DGCF achieves significant
improvements over several state-of-the-art models like NGCF, DisenGCN, and
MacridVAE. Further analyses offer insights into the advantages of DGCF on the
disentanglement of user intents and interpretability of representations. Our
codes are available in
https://github.com/xiangwang1223/disentangled_graph_collaborative_filtering.
- Abstract(参考訳): インタラクションデータからユーザとアイテムの情報表現を学ぶことは、コラボレーティブフィルタリング(cf)にとって非常に重要である。
現在の埋め込み関数は、ユーザ-itemの関係を利用して表現を豊かにし、単一のユーザ-itemインスタンスから全体的相互作用グラフへと進化する。
それにもかかわらず、彼らは主に、時間、関心のために、または家族のような他の人々のために買い物をする可能性のあるアイテムを採用することに対するユーザの意図の多様性を無視しながら、一様に関係をモデル化した。
このようなユーザの関心をモデル化するための統一的なアプローチは、サブオプティカルな表現に簡単につながり、多様な関係のモデル化や、表現におけるユーザの意図の不一致を損なう。
本稿では,ユーザの意図の細かな粒度において,ユーザとテーマの関係に特に注目する。
そこで我々は,これらの因子を分解し,不等角化表現を生成する新しいモデルである不等角化グラフ協調フィルタリング(dgcf)を考案する。
具体的には,各ユーザ・コンテンツ間インタラクションのインテント上の分布をモデル化することにより,インテント・アウェアなインタラクショングラフと表現を反復的に洗練する。
一方、我々は異なる意図の独立を奨励する。
これにより、絡み合った表現が生じ、各意図に関連する情報を効果的に蒸留する。
我々は3つのベンチマークデータセットについて広範な実験を行い、dgcfはngcf、disengcn、macridvaeといった最先端モデルに対して大幅な改善を達成している。
さらなる分析により、DGCFの利点がユーザ意図の絡み合いと表現の解釈可能性に影響を与えている。
私たちのコードはhttps://github.com/xiangwang1223/disentangled_graph_collaborative_filteringで利用可能です。
関連論文リスト
- Enhancing Graph Contrastive Learning with Reliable and Informative Augmentation for Recommendation [84.45144851024257]
CoGCLは、離散コードを通じてより強力な協調情報でコントラスト的なビューを構築することで、グラフのコントラスト学習を強化することを目的としている。
ユーザとアイテムの表現を離散コードに定量化するために,マルチレベルベクトル量化器をエンドツーエンドで導入する。
近傍構造に対しては,離散符号を仮想隣人として扱うことにより,仮想隣人拡張を提案する。
意味的関連性については、共有された離散コードと相互作用ターゲットに基づいて類似のユーザ/イテムを識別し、意味的関連性のあるビューを生成する。
論文 参考訳(メタデータ) (2024-09-09T14:04:17Z) - Exploring the Individuality and Collectivity of Intents behind Interactions for Graph Collaborative Filtering [9.740376003100437]
本稿では,BIGCF (Bilateral Intent-Guided Graph Collaborative Filtering) に指定された新しい推薦フレームワークを提案する。
具体的には、因果的視点からユーザとイテムの相互作用を詳しく調べ、個別の意図の概念を提示する。
暗黙的なフィードバックの空間性に対抗するため、ユーザとアイテムの特徴分布はガウスベースのグラフ生成戦略を介して符号化される。
論文 参考訳(メタデータ) (2024-05-15T02:31:26Z) - Alleviating Behavior Data Imbalance for Multi-Behavior Graph
Collaborative Filtering [14.396131602165598]
マルチビヘイビアグラフ協調フィルタリングのための振舞いデータ不均衡を緩和する簡易かつ効果的なモデルであるIGGCFを提案する。
IMGCFはマルチタスク学習フレームワークを使用して、マルチビヘイビアグラフ上の協調フィルタリングを行う。
広く使われている2つのマルチビヘイビアデータセットの実験は、IGGCFの有効性を実証している。
論文 参考訳(メタデータ) (2023-11-12T08:46:07Z) - Visual Commonsense based Heterogeneous Graph Contrastive Learning [79.22206720896664]
視覚的推論タスクをより良く仕上げるための異種グラフコントラスト学習法を提案する。
本手法はプラグイン・アンド・プレイ方式として設計されており,多種多様な代表手法と迅速かつ容易に組み合わせることができる。
論文 参考訳(メタデータ) (2023-11-11T12:01:18Z) - Topology-aware Debiased Self-supervised Graph Learning for
Recommendation [6.893289671937124]
本稿では,TDGL(Topology-aware De Self-supervised Graph Learning)を提案する。
TDSGLはユーザ間の意味的類似性(items)に応じてコントラッシブなペアを構成する
その結果,提案モデルが3つの公開データセット上で,最先端モデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-10-24T14:16:19Z) - IA-GCN: Interactive Graph Convolutional Network for Recommendation [13.207235494649343]
グラフ畳み込みネットワーク(GCN)は、協調フィルタリング(CF)ベースのレコメンダシステム(RS)のための新しい最先端技術となった。
ユーザ同士の相互対話型ガイダンスを構築し,IA-GCN(InterActive GCN)と呼ばれる新しいモデルを提案する。
我々のモデルは、CFのための最先端のGCNモデルであるLightGCNの上に構築されており、エンドツーエンドで様々なGCNベースのCFアーキテクチャと組み合わせることができる。
論文 参考訳(メタデータ) (2022-04-08T03:38:09Z) - Relation-aware Heterogeneous Graph for User Profiling [24.076585294260816]
本稿では,ユーザ・プロファイリングにおける関係性を考慮した異種グラフ手法を提案する。
我々は、不均一なメッセージパッシングに対して、トランスフォーマー方式でクエリ、キー、値のメカニズムを採用する。
実世界の2つのeコマースデータセットの実験を行い、我々のアプローチの大幅なパフォーマンス向上を観察する。
論文 参考訳(メタデータ) (2021-10-14T06:59:30Z) - Learning Intents behind Interactions with Knowledge Graph for
Recommendation [93.08709357435991]
知識グラフ(KG)は、推薦システムにおいてますます重要な役割を果たす。
既存のGNNベースのモデルは、きめ細かいインテントレベルでのユーザ項目関係の特定に失敗します。
本稿では,新しいモデルである知識グラフベースインテントネットワーク(kgin)を提案する。
論文 参考訳(メタデータ) (2021-02-14T03:21:36Z) - Dynamic Graph Collaborative Filtering [64.87765663208927]
動的レコメンデーションは,逐次データに基づくリアルタイム予測を提供するレコメンデータシステムにとって不可欠である。
本稿では、動的グラフを利用して協調関係とシーケンシャル関係をキャプチャする新しいフレームワーク、Dynamic Graph Collaborative Filtering (DGCF)を提案する。
提案手法は, 動的協調情報の統合の有効性を示すため, 動作繰り返しの少ないデータセットでは高い性能を実現する。
論文 参考訳(メタデータ) (2021-01-08T04:16:24Z) - ConsNet: Learning Consistency Graph for Zero-Shot Human-Object
Interaction Detection [101.56529337489417]
画像中のHuman, Action, Object>の形のHOIインスタンスを検出・認識することを目的としたHuman-Object Interaction (HOI) Detectionの問題点を考察する。
我々は、オブジェクト、アクション、インタラクション間の多レベルコンパレンシーは、稀な、あるいは以前には見られなかったHOIのセマンティック表現を生成するための強力な手がかりであると主張している。
提案モデルでは,人-対象のペアの視覚的特徴とHOIラベルの単語埋め込みを入力とし,それらを視覚-意味的関節埋め込み空間にマッピングし,類似度を計測して検出結果を得る。
論文 参考訳(メタデータ) (2020-08-14T09:11:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。