論文の概要: Knowledge Enhancement for Multi-Behavior Contrastive Recommendation
- arxiv url: http://arxiv.org/abs/2301.05403v1
- Date: Fri, 13 Jan 2023 06:24:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 15:21:29.578420
- Title: Knowledge Enhancement for Multi-Behavior Contrastive Recommendation
- Title(参考訳): マルチビヘイビアコントラスト勧告のための知識向上
- Authors: Hongrui Xuan, Yi Liu, Bohan Li, Hongzhi Yin
- Abstract要約: 本稿では,KMCLR(Knowledge Enhancement Multi-Behavior Contrastive Learning Recommendation)フレームワークを提案する。
本研究では,ユーザのパーソナライズされた行動情報を抽出し,ユーザ埋め込み強化のためのマルチ行動学習モジュールを設計する。
最適化段階では、粗粒度共通性とユーザの複数行動間の微粒度差をモデル化し、推奨効果をさらに改善する。
- 参考スコア(独自算出の注目度): 39.50243004656453
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A well-designed recommender system can accurately capture the attributes of
users and items, reflecting the unique preferences of individuals. Traditional
recommendation techniques usually focus on modeling the singular type of
behaviors between users and items. However, in many practical recommendation
scenarios (e.g., social media, e-commerce), there exist multi-typed interactive
behaviors in user-item relationships, such as click, tag-as-favorite, and
purchase in online shopping platforms. Thus, how to make full use of
multi-behavior information for recommendation is of great importance to the
existing system, which presents challenges in two aspects that need to be
explored: (1) Utilizing users' personalized preferences to capture
multi-behavioral dependencies; (2) Dealing with the insufficient recommendation
caused by sparse supervision signal for target behavior. In this work, we
propose a Knowledge Enhancement Multi-Behavior Contrastive Learning
Recommendation (KMCLR) framework, including two Contrastive Learning tasks and
three functional modules to tackle the above challenges, respectively. In
particular, we design the multi-behavior learning module to extract users'
personalized behavior information for user-embedding enhancement, and utilize
knowledge graph in the knowledge enhancement module to derive more robust
knowledge-aware representations for items. In addition, in the optimization
stage, we model the coarse-grained commonalities and the fine-grained
differences between multi-behavior of users to further improve the
recommendation effect. Extensive experiments and ablation tests on the three
real-world datasets indicate our KMCLR outperforms various state-of-the-art
recommendation methods and verify the effectiveness of our method.
- Abstract(参考訳): うまく設計されたレコメンダシステムは、個人固有の好みを反映して、ユーザとアイテムの属性を正確に捉えることができる。
従来のレコメンデーションテクニックは、通常、ユーザとアイテムの間の特定のタイプの振る舞いをモデル化することに重点を置いています。
しかし、多くの実用的なレコメンデーションシナリオ(ソーシャルメディアやeコマースなど)では、クリック、タグ・アズ・フェイト、オンラインショッピングプラットフォームでの購入など、ユーザとテーマの関係において多型対話的な行動が存在する。
したがって, マルチ行動情報を完全に活用する方法は, 既存のシステムにとって非常に重要であり, 1) 多行動依存を捉えるためにユーザのパーソナライズされた嗜好を活用すること, (2) 標的行動に対するスパース監視信号による不適切なレコメンデーションに対処すること,の2つの側面において課題を提起する。
本研究では,これらの課題に取り組むための2つのコントラスト学習タスクと3つの機能モジュールを含む知識強化型コントラスト学習レコメンデーション(kmclr)フレームワークを提案する。
特に,ユーザのパーソナライズされた行動情報を抽出するためのマルチビヘイビア学習モジュールを設計し,ナレッジエンハンスメントモジュールにおけるナレッジグラフを利用して,項目に対するより堅牢なナレッジアウェア表現を導出する。
また,最適化段階では,ユーザ間の粗粒度共通性と細粒度差をモデル化し,推薦効果をさらに向上する。
3つの実世界のデータセットに関する広範囲な実験とアブレーションテストは、kmclrが様々な最先端の推奨手法を上回り、本手法の有効性を検証していることを示している。
関連論文リスト
- Personalized Multi-task Training for Recommender System [80.23030752707916]
PMTRecは、様々な情報ソースから包括的ユーザ/イテム埋め込みを得るための、最初のパーソナライズされたマルチタスク学習アルゴリズムである。
我々の貢献は、レコメンデーションシステムにおけるパーソナライズされたマルチタスクトレーニングを促進するための新しい道を開く。
論文 参考訳(メタデータ) (2024-07-31T06:27:06Z) - Contrastive Learning Method for Sequential Recommendation based on Multi-Intention Disentanglement [5.734747179463411]
MIDCL(Multi-Intention Disentanglement)に基づくコントラスト学習シーケンシャルレコメンデーション手法を提案する。
私たちの仕事では、意図は動的で多様なものとして認識され、ユーザの振る舞いは、しばしば現在のマルチインテンションによって駆動されます。
本稿では,最も関連性の高いユーザの対話的意図の探索と,正のサンプル対の相互情報の最大化のための2種類のコントラスト学習パラダイムを提案する。
論文 参考訳(メタデータ) (2024-04-28T15:13:36Z) - Knowledge-Aware Multi-Intent Contrastive Learning for Multi-Behavior Recommendation [6.522900133742931]
マルチ行動レコメンデーションは、ビュー、カートの追加、購入など、さまざまな行動に基づいたより正確な選択を提供する。
本稿では,KAMCL(Knowledge-Aware Multi-Intent Contrastive Learning)モデルを提案する。
このモデルは、インテントを構築するために知識グラフ内の関係を利用し、より正確なレコメンデーションを達成するためのインテントの観点から、ユーザのマルチビヘイビア間の接続をマイニングすることを目的としている。
論文 参考訳(メタデータ) (2024-04-18T08:39:52Z) - Coarse-to-Fine Knowledge-Enhanced Multi-Interest Learning Framework for
Multi-Behavior Recommendation [52.89816309759537]
マルチタイプの行動(例えば、クリック、カートの追加、購入など)は、ほとんどの現実世界のレコメンデーションシナリオに広く存在する。
最先端のマルチ振る舞いモデルは、すべての歴史的相互作用を入力として区別しない振る舞い依存を学習する。
本稿では,多様な行動に対する共有的・行動特異的な関心を学習するための,多目的学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-03T05:28:14Z) - Contrastive Meta Learning with Behavior Multiplicity for Recommendation [42.15990960863924]
優れたインフォームドレコメンデーションフレームワークは、ユーザが関心のあるアイテムを識別するだけでなく、さまざまなオンラインプラットフォームの収益にも貢献できる。
本稿では,コントラストメタラーニング(Contrastive Meta Learning, CML)を提案する。
提案手法は,様々な最先端のレコメンデーション手法より一貫して優れている。
論文 参考訳(メタデータ) (2022-02-17T08:51:24Z) - Knowledge-Enhanced Hierarchical Graph Transformer Network for
Multi-Behavior Recommendation [56.12499090935242]
本研究では,ユーザとレコメンデータシステムにおける項目間の多種類の対話パターンを探索する知識強化階層型グラフトランスフォーマネットワーク(KHGT)を提案する。
KHGTはグラフ構造化ニューラルネットワーク上に構築され、タイプ固有の振る舞い特性をキャプチャする。
KHGTは、様々な評価設定において、最先端のレコメンデーション手法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2021-10-08T09:44:00Z) - Graph Meta Network for Multi-Behavior Recommendation [24.251784947151755]
本稿では,マルチビヘイビアパターンモデリングをメタラーニングパラダイムに組み込むために,グラフメタネットワークを用いたマルチビヘイビアレコメンデーションフレームワークを提案する。
我々の開発したMB-GMNは、型に依存した行動表現を明らかにする能力により、ユーザ-イテム相互作用学習を増強する。
論文 参考訳(メタデータ) (2021-10-08T08:38:27Z) - Hyper Meta-Path Contrastive Learning for Multi-Behavior Recommendation [61.114580368455236]
マルチビヘイビア情報によるユーザ購入予測は、現在のレコメンデーションシステムでは難しい問題である。
本稿では,ハイパーメタパスやハイパーメタグラフを構築するためのハイパーメタパスの概念を提案する。
最近のグラフコントラスト学習の成功により、異なる振る舞い間の依存関係を理解するために固定されたスキームを割り当てるのではなく、ユーザ行動パターンの埋め込みを適応的に学習する。
論文 参考訳(メタデータ) (2021-09-07T04:28:09Z) - Generative Inverse Deep Reinforcement Learning for Online Recommendation [62.09946317831129]
オンラインレコメンデーションのための新しい逆強化学習手法InvRecを提案する。
InvRecは、オンラインレコメンデーションのために、ユーザの行動から報酬関数を自動的に抽出する。
論文 参考訳(メタデータ) (2020-11-04T12:12:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。