論文の概要: A Model-Agnostic Framework for Recommendation via Interest-aware Item
Embeddings
- arxiv url: http://arxiv.org/abs/2308.09202v1
- Date: Thu, 17 Aug 2023 22:40:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 15:15:57.531311
- Title: A Model-Agnostic Framework for Recommendation via Interest-aware Item
Embeddings
- Title(参考訳): 興味を意識したアイテム埋め込みによるレコメンデーションのためのモデル非依存フレームワーク
- Authors: Amit Kumar Jaiswal, Yu Xiong
- Abstract要約: Interest-Aware Capsule Network (IaCN)は、関心指向のアイテム表現を直接学習するモデルに依存しないフレームワークである。
IaCNは補助的なタスクとして機能し、アイテムベースと興味ベースの両方の表現の合同学習を可能にする。
提案手法をベンチマークデータセットで評価し、異なるディープニューラルネットワークを含むさまざまなシナリオを探索する。
- 参考スコア(独自算出の注目度): 4.989653738257287
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Item representation holds significant importance in recommendation systems,
which encompasses domains such as news, retail, and videos. Retrieval and
ranking models utilise item representation to capture the user-item
relationship based on user behaviours. While existing representation learning
methods primarily focus on optimising item-based mechanisms, such as attention
and sequential modelling. However, these methods lack a modelling mechanism to
directly reflect user interests within the learned item representations.
Consequently, these methods may be less effective in capturing user interests
indirectly. To address this challenge, we propose a novel Interest-aware
Capsule network (IaCN) recommendation model, a model-agnostic framework that
directly learns interest-oriented item representations. IaCN serves as an
auxiliary task, enabling the joint learning of both item-based and
interest-based representations. This framework adopts existing recommendation
models without requiring substantial redesign. We evaluate the proposed
approach on benchmark datasets, exploring various scenarios involving different
deep neural networks, behaviour sequence lengths, and joint learning ratios of
interest-oriented item representations. Experimental results demonstrate
significant performance enhancements across diverse recommendation models,
validating the effectiveness of our approach.
- Abstract(参考訳): アイテム表現は、ニュース、小売、ビデオといったドメインを含むレコメンデーションシステムにおいて重要な意味を持つ。
検索およびランキングモデルでは、アイテム表現を使用して、ユーザの振る舞いに基づいてユーザとアイテムの関係をキャプチャする。
既存の表現学習手法は主に注目やシーケンシャルモデリングといったアイテムベースのメカニズムの最適化に焦点を当てている。
しかし,これらの手法には,学習項目表現におけるユーザの関心を直接反映するモデリング機構が欠如している。
したがって、これらの手法は間接的にユーザーの興味を捉えるのに効果が低い可能性がある。
この課題に対処するために、関心指向のアイテム表現を直接学習するモデルに依存しないフレームワークである、新しい関心対応カプセルネットワーク(IaCN)レコメンデーションモデルを提案する。
IaCNは補助的なタスクとして機能し、アイテムベースと興味ベースの両方の表現の合同学習を可能にする。
このフレームワークは、大幅な再設計を必要とせずに既存のレコメンデーションモデルを採用する。
提案手法をベンチマークデータセット上で評価し、異なるディープニューラルネットワーク、行動シーケンスの長さ、興味のある項目表現の連成学習率を含む様々なシナリオを探索する。
実験の結果,様々なレコメンデーションモデルにまたがる性能向上が示され,提案手法の有効性が検証された。
関連論文リスト
- LLM-assisted Explicit and Implicit Multi-interest Learning Framework for Sequential Recommendation [50.98046887582194]
本研究では,ユーザの興味を2つのレベル – 行動と意味論 – でモデル化する,明示的で暗黙的な多目的学習フレームワークを提案する。
提案するEIMFフレームワークは,小型モデルとLLMを効果的に組み合わせ,多目的モデリングの精度を向上させる。
論文 参考訳(メタデータ) (2024-11-14T13:00:23Z) - Efficient Human-in-the-loop System for Guiding DNNs Attention [25.501443892795614]
本稿では,ユーザが指定した領域に対して,分類器の注意を対話的に誘導する,効率的なHuman-in-the-loopシステムを提案する。
注意誘導のための従来のアプローチでは、ピクセルレベルのアノテーションの準備が必要であり、インタラクティブシステムとして設計されていない。
論文 参考訳(メタデータ) (2022-06-13T09:04:32Z) - Towards Universal Sequence Representation Learning for Recommender
Systems [98.02154164251846]
我々はUniSRecという新しいユニバーサルシーケンス表現学習手法を提案する。
提案手法は、項目の関連記述テキストを用いて、異なる推薦シナリオ間で転送可能な表現を学習する。
我々のアプローチは、パラメータ効率のよい方法で、新しいレコメンデーションドメインやプラットフォームに効果的に移行できます。
論文 参考訳(メタデータ) (2022-06-13T07:21:56Z) - Multiple Interest and Fine Granularity Network for User Modeling [3.508126539399186]
ユーザモデリングは、カスタマエクスペリエンスとビジネス収益の両方の観点から、マッチングステージとランキングステージの両方において、産業レコメンデータシステムにおいて、基本的な役割を果たす。
既存のディープラーニングベースのアプローチのほとんどは、アイテムIDとカテゴリIDを活用するが、色やメイトリアルのようなきめ細かい特徴は無視し、ユーザの興味の細かい粒度をモデル化するのを妨げる。
本稿では,ユーザの多目的・細粒度に対処する多目的・細粒度ネットワーク(MFN)を提案し,ユーザの多目的間の類似性関係と組み合わせ関係からモデルを構築した。
論文 参考訳(メタデータ) (2021-12-05T15:12:08Z) - Reinforcement Learning based Path Exploration for Sequential Explainable
Recommendation [57.67616822888859]
強化学習(TMER-RL)を活用した新しい時間的メタパスガイド型説明可能な勧告を提案する。
TMER-RLは, 動的知識グラフ上での動的ユーザ・イテム進化を逐次モデル化するために, 注意機構を持つ連続項目間の強化項目・イテムパスをモデル化する。
2つの実世界のデータセットに対するTMERの大規模な評価は、最近の強いベースラインと比較して最先端のパフォーマンスを示している。
論文 参考訳(メタデータ) (2021-11-24T04:34:26Z) - Learning Dual Dynamic Representations on Time-Sliced User-Item
Interaction Graphs for Sequential Recommendation [62.30552176649873]
シーケンシャルレコメンデーションのための動的表現学習モデル(DRL-SRe)を考案する。
両面から動的に特徴付けるためのユーザ・イテム相互作用をモデル化するため,提案モデルでは,時間スライス毎にグローバルなユーザ・イテム相互作用グラフを構築した。
モデルが微粒な時間情報を捕捉することを可能にするため,連続時間スライス上での補助的時間予測タスクを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:44:27Z) - Denoising User-aware Memory Network for Recommendation [11.145186013006375]
我々はDUMN(Denoising User-Aware memory network)という新しいCTRモデルを提案する。
DUMNは明示的なフィードバックの表現を使用して、暗黙的なフィードバックの表現を浄化し、暗黙的なフィードバックを効果的に軽視する。
2つの実際のEコマースユーザ行動データセットの実験は、DUMNが最先端のベースラインよりも大幅に改善されていることを示している。
論文 参考訳(メタデータ) (2021-07-12T14:39:36Z) - A Survey on Neural Recommendation: From Collaborative Filtering to
Content and Context Enriched Recommendation [70.69134448863483]
レコメンデーションの研究は、ニューラルネットワークに基づく新しいレコメンダーモデルの発明にシフトした。
近年,神経リコメンデータモデルの開発が著しい進展を遂げている。
論文 参考訳(メタデータ) (2021-04-27T08:03:52Z) - Represent Items by Items: An Enhanced Representation of the Target Item
for Recommendation [37.28220632871373]
アイテムベースの協調フィルタリング(ICF)は、レコメンダシステムやオンライン広告などの産業アプリケーションで広く利用されている。
最近のモデルは、注意メカニズムやディープニューラルネットワークなどの方法を使用して、ユーザー表現とスコアリング機能をより正確に学習します。
共起項目から関連する情報を蒸留する対象項目の表現の強化を提案する。
論文 参考訳(メタデータ) (2021-04-26T11:28:28Z) - Learning User Representations with Hypercuboids for Recommender Systems [26.80987554753327]
我々のモデルは、空間内の一点ではなく、超立方体としてユーザーの興味を明示的にモデル化する。
ユーザの興味の多様性を捉える能力を高めるために,2種類のハイパークボイドを提案する。
また、ユーザのアクティビティシーケンス(例えば、購入とレート)をキャプチャすることで、ユーザの超立方体学習を促進するために、ニューラルアーキテクチャも提案されている。
論文 参考訳(メタデータ) (2020-11-11T12:50:00Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。