論文の概要: Exploring the Individuality and Collectivity of Intents behind Interactions for Graph Collaborative Filtering
- arxiv url: http://arxiv.org/abs/2405.09042v1
- Date: Wed, 15 May 2024 02:31:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-11 00:30:28.085509
- Title: Exploring the Individuality and Collectivity of Intents behind Interactions for Graph Collaborative Filtering
- Title(参考訳): グラフ協調フィルタリングにおける相互作用の背後にある成分の個人性と集合性の検討
- Authors: Yi Zhang, Lei Sang, Yiwen Zhang,
- Abstract要約: 本稿では,BIGCF (Bilateral Intent-Guided Graph Collaborative Filtering) に指定された新しい推薦フレームワークを提案する。
具体的には、因果的視点からユーザとイテムの相互作用を詳しく調べ、個別の意図の概念を提示する。
暗黙的なフィードバックの空間性に対抗するため、ユーザとアイテムの特徴分布はガウスベースのグラフ生成戦略を介して符号化される。
- 参考スコア(独自算出の注目度): 9.740376003100437
- License:
- Abstract: Intent modeling has attracted widespread attention in recommender systems. As the core motivation behind user selection of items, intent is crucial for elucidating recommendation results. The current mainstream modeling method is to abstract the intent into unknowable but learnable shared or non-shared parameters. Despite considerable progress, we argue that it still confronts the following challenges: firstly, these methods only capture the coarse-grained aspects of intent, ignoring the fact that user-item interactions will be affected by collective and individual factors (e.g., a user may choose a movie because of its high box office or because of his own unique preferences); secondly, modeling believable intent is severely hampered by implicit feedback, which is incredibly sparse and devoid of true semantics. To address these challenges, we propose a novel recommendation framework designated as Bilateral Intent-guided Graph Collaborative Filtering (BIGCF). Specifically, we take a closer look at user-item interactions from a causal perspective and put forth the concepts of individual intent-which signifies private preferences-and collective intent-which denotes overall awareness. To counter the sparsity of implicit feedback, the feature distributions of users and items are encoded via a Gaussian-based graph generation strategy, and we implement the recommendation process through bilateral intent-guided graph reconstruction re-sampling. Finally, we propose graph contrastive regularization for both interaction and intent spaces to uniformize users, items, intents, and interactions in a self-supervised and non-augmented paradigm. Experimental results on three real-world datasets demonstrate the effectiveness of BIGCF compared with existing solutions.
- Abstract(参考訳): インテントモデリングはレコメンデーションシステムにおいて広く注目を集めている。
ユーザの項目選択の背景にあるモチベーションとして、推奨結果の解明には意図が不可欠である。
現在の主流モデリング手法は、意図を無知だが学習可能な共有パラメータまたは非共有パラメータに抽象化することである。
ひとつは、ユーザとイテムの相互作用が集団的および個々の要因に影響されるという事実を無視して、意図の粗い面のみをキャプチャすることである(例えば、ユーザーは、高いボックスオフィスや独自の好みのために映画を選択することができる)。
これらの課題に対処するため,BIGCF (Bilateral Intent-Guided Graph Collaborative Filtering) として指定された新しい推薦フレームワークを提案する。
具体的には、因果的視点からユーザとイテムの相互作用を詳しく調べ、個人的嗜好を示す個別の意図と、全体的認識を示す集合的な意図の概念を提示する。
暗黙的なフィードバックの空間性に対処するため、ユーザとアイテムの特徴分布をガウスのグラフ生成戦略によって符号化し、二元的インテント誘導グラフ再構成再サンプリングによりレコメンデーションプロセスを実装する。
最後に, ユーザ, アイテム, 意図, インタラクションを自己監督的かつ非拡張的パラダイムで統一するための, インタラクション空間とインテント空間の両方に対するグラフコントラスト正規化を提案する。
3つの実世界のデータセットに対する実験結果から,既存のソリューションと比較してBIGCFの有効性が示された。
関連論文リスト
- Improving One-class Recommendation with Multi-tasking on Various
Preference Intensities [1.8416014644193064]
一流のレコメンデーションでは、ユーザの暗黙のフィードバックに基づいてレコメンデーションを行う必要があります。
暗黙的なフィードバックから各信号の様々な好み強度を考慮に入れたマルチタスクフレームワークを提案する。
提案手法は,3つの大規模実世界のベンチマークデータセットに対して,最先端の手法よりも大きなマージンで性能を向上する。
論文 参考訳(メタデータ) (2024-01-18T18:59:55Z) - Preference or Intent? Double Disentangled Collaborative Filtering [34.63377358888368]
従来の協調フィルタリング手法では、意図と好みの要素は、通常モデリングプロセスで絡み合わされる。
個人化されたレコメンデーションのための2次元表現学習手法であるDouble Disentangled Collaborative Filtering (DDCF)を提案する。
論文 参考訳(メタデータ) (2023-05-18T16:13:41Z) - Latent User Intent Modeling for Sequential Recommenders [92.66888409973495]
逐次リコメンデータモデルは、プラットフォーム上での氏のインタラクション履歴に基づいて、ユーザが次に対話する可能性のあるアイテムを予測することを学習する。
しかし、ほとんどのシーケンシャルなレコメンデータは、ユーザの意図に対する高いレベルの理解を欠いている。
したがって、インテントモデリングはユーザー理解と長期ユーザーエクスペリエンスの最適化に不可欠である。
論文 参考訳(メタデータ) (2022-11-17T19:00:24Z) - Intent Contrastive Learning for Sequential Recommendation [86.54439927038968]
ユーザの意図を表現するために潜伏変数を導入し,クラスタリングにより潜伏変数の分布関数を学習する。
我々は,学習意図を対照的なSSLによってSRモデルに活用し,シーケンスのビューとそれに対応するインテントとの一致を最大化することを提案する。
4つの実世界のデータセットで実施された実験は、提案した学習パラダイムの優位性を示している。
論文 参考訳(メタデータ) (2022-02-05T09:24:13Z) - TEA: A Sequential Recommendation Framework via Temporally Evolving
Aggregations [12.626079984394766]
動的ユーザ・イテム不均質グラフに基づく新しいシーケンシャル・レコメンデーション・フレームワークを提案する。
条件付き乱数場を利用して不均一なグラフとユーザ動作を集約し,確率推定を行う。
提案したフレームワークのスケーラブルで柔軟な実装を提供しています。
論文 参考訳(メタデータ) (2021-11-14T15:54:23Z) - Dynamic Graph Collaborative Filtering [64.87765663208927]
動的レコメンデーションは,逐次データに基づくリアルタイム予測を提供するレコメンデータシステムにとって不可欠である。
本稿では、動的グラフを利用して協調関係とシーケンシャル関係をキャプチャする新しいフレームワーク、Dynamic Graph Collaborative Filtering (DGCF)を提案する。
提案手法は, 動的協調情報の統合の有効性を示すため, 動作繰り返しの少ないデータセットでは高い性能を実現する。
論文 参考訳(メタデータ) (2021-01-08T04:16:24Z) - ConsNet: Learning Consistency Graph for Zero-Shot Human-Object
Interaction Detection [101.56529337489417]
画像中のHuman, Action, Object>の形のHOIインスタンスを検出・認識することを目的としたHuman-Object Interaction (HOI) Detectionの問題点を考察する。
我々は、オブジェクト、アクション、インタラクション間の多レベルコンパレンシーは、稀な、あるいは以前には見られなかったHOIのセマンティック表現を生成するための強力な手がかりであると主張している。
提案モデルでは,人-対象のペアの視覚的特徴とHOIラベルの単語埋め込みを入力とし,それらを視覚-意味的関節埋め込み空間にマッピングし,類似度を計測して検出結果を得る。
論文 参考訳(メタデータ) (2020-08-14T09:11:18Z) - Disentangled Graph Collaborative Filtering [100.26835145396782]
Disentangled Graph Collaborative Filtering (DGCF)は、インタラクションデータからユーザとアイテムの情報表現を学ぶための新しいモデルである。
ユーザ・イテムのインタラクション毎に意図を超越した分布をモデル化することにより、インテント・アウェアなインタラクショングラフと表現を反復的に洗練する。
DGCFはNGCF、DisenGCN、MacridVAEといった最先端モデルよりも大幅に改善されている。
論文 参考訳(メタデータ) (2020-07-03T15:37:25Z) - AGIF: An Adaptive Graph-Interactive Framework for Joint Multiple Intent
Detection and Slot Filling [69.59096090788125]
本稿では,多目的検出とスロットフィリングを併用する適応グラフ対話フレームワーク(AGIF)を提案する。
スロットとインテントの強い相関関係をモデル化するために,インテント-スロットグラフ相互作用層を導入する。
このような相互作用層が各トークンに適応的に適用され、関連する意図情報を自動抽出する利点がある。
論文 参考訳(メタデータ) (2020-04-21T15:07:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。