論文の概要: Represent Items by Items: An Enhanced Representation of the Target Item
for Recommendation
- arxiv url: http://arxiv.org/abs/2104.12483v1
- Date: Mon, 26 Apr 2021 11:28:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 14:28:06.731577
- Title: Represent Items by Items: An Enhanced Representation of the Target Item
for Recommendation
- Title(参考訳): 項目を項目で表現する:推奨対象項目の強化表現
- Authors: Yinjiang Cai, Zeyu Cui, Shu Wu, Zhen Lei, Xibo Ma
- Abstract要約: アイテムベースの協調フィルタリング(ICF)は、レコメンダシステムやオンライン広告などの産業アプリケーションで広く利用されている。
最近のモデルは、注意メカニズムやディープニューラルネットワークなどの方法を使用して、ユーザー表現とスコアリング機能をより正確に学習します。
共起項目から関連する情報を蒸留する対象項目の表現の強化を提案する。
- 参考スコア(独自算出の注目度): 37.28220632871373
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Item-based collaborative filtering (ICF) has been widely used in industrial
applications such as recommender system and online advertising. It models
users' preference on target items by the items they have interacted with.
Recent models use methods such as attention mechanism and deep neural network
to learn the user representation and scoring function more accurately. However,
despite their effectiveness, such models still overlook a problem that
performance of ICF methods heavily depends on the quality of item
representation especially the target item representation. In fact, due to the
long-tail distribution in the recommendation, most item embeddings can not
represent the semantics of items accurately and thus degrade the performance of
current ICF methods. In this paper, we propose an enhanced representation of
the target item which distills relevant information from the co-occurrence
items. We design sampling strategies to sample fix number of co-occurrence
items for the sake of noise reduction and computational cost. Considering the
different importance of sampled items to the target item, we apply attention
mechanism to selectively adopt the semantic information of the sampled items.
Our proposed Co-occurrence based Enhanced Representation model (CER) learns the
scoring function by a deep neural network with the attentive user
representation and fusion of raw representation and enhanced representation of
target item as input. With the enhanced representation, CER has stronger
representation power for the tail items compared to the state-of-the-art ICF
methods. Extensive experiments on two public benchmarks demonstrate the
effectiveness of CER.
- Abstract(参考訳): アイテムベースの協調フィルタリング(ICF)は、レコメンダシステムやオンライン広告などの産業アプリケーションで広く利用されている。
対話したアイテムによって、ターゲットアイテムに対するユーザの好みをモデル化する。
近年のモデルは、注意機構やディープニューラルネットワークなどの手法を用いて、ユーザの表現とスコアリング機能をより正確に学習している。
しかし、これらのモデルの有効性にもかかわらず、ICF手法の性能はアイテム表現の品質、特に対象アイテム表現に大きく依存する問題を見落としている。
実際、レコメンデーションにおける長期分布のため、ほとんどのアイテム埋め込みはアイテムの意味を正確に表現することができず、現在のICFメソッドのパフォーマンスを低下させる。
本稿では,共起項目から関連する情報を蒸留する対象項目の表現の強化を提案する。
ノイズ低減と計算コストのために,共起アイテム数をサンプリングするためのサンプリング戦略を設計する。
対象項目に対するサンプル項目の重要性を考慮し,サンプル項目の意味情報を選択的に適用するための注意機構を適用した。
提案した共起性に基づく拡張表現モデル (CER) は, 暗黙的ユーザ表現と生表現の融合, 対象項目の強調表現を入力として, 深層ニューラルネットワークを用いてスコアリング関数を学習する。
拡張表現により、cerは最先端のicfメソッドに比べてテール項目の表現力が強い。
2つの公開ベンチマークに関する広範囲な実験がcerの有効性を実証している。
関連論文リスト
- Exploring Fine-grained Retail Product Discrimination with Zero-shot Object Classification Using Vision-Language Models [50.370043676415875]
スマートリテールアプリケーションでは、多数の製品とその頻繁なターンオーバーは信頼性の高いゼロショットオブジェクト分類方法を必要とする。
我々は28の異なる製品カテゴリからなるMIMEXデータセットを紹介した。
我々は、提案したMIMEXデータセット上で、最先端ビジョン言語モデル(VLM)のゼロショットオブジェクト分類性能をベンチマークする。
論文 参考訳(メタデータ) (2024-09-23T12:28:40Z) - A Model-Agnostic Framework for Recommendation via Interest-aware Item
Embeddings [4.989653738257287]
Interest-Aware Capsule Network (IaCN)は、関心指向のアイテム表現を直接学習するモデルに依存しないフレームワークである。
IaCNは補助的なタスクとして機能し、アイテムベースと興味ベースの両方の表現の合同学習を可能にする。
提案手法をベンチマークデータセットで評価し、異なるディープニューラルネットワークを含むさまざまなシナリオを探索する。
論文 参考訳(メタデータ) (2023-08-17T22:40:59Z) - Deep Context Interest Network for Click-Through Rate Prediction [16.37806484383383]
本稿では,クリックと表示コンテキストを統合的にモデル化し,ユーザのコンテキスト認識の興味を学習する,Deep Context Interest Network (DCIN) という新しいモデルを提案する。
DCINは当社のオンライン広告システムにデプロイされており、主要なトラフィックに対して1.5%のCTRと1.5%のRPMリフトを提供する。
論文 参考訳(メタデータ) (2023-08-11T09:32:58Z) - Towards Explainable Collaborative Filtering with Taste Clusters Learning [43.4512681951459]
協調フィルタリング(CF)は、リコメンダシステムにおいて広く使われ、効果的な手法である。
レコメンデーションモデルに説明可能性を追加することは、意思決定プロセスにおける信頼を高めるだけでなく、複数のメリットも得る。
本稿では,解釈可能なクラスタ・ラーニングを生かした,クリーンで効果的なECF(Explainable Collaborative Filtering)モデルを提案する。
論文 参考訳(メタデータ) (2023-04-27T03:08:15Z) - Entity-Graph Enhanced Cross-Modal Pretraining for Instance-level Product
Retrieval [152.3504607706575]
本研究の目的は, 細粒度製品カテゴリを対象とした, 弱制御型マルチモーダル・インスタンスレベルの製品検索である。
まず、Product1Mデータセットをコントリビュートし、2つの実際のインスタンスレベルの検索タスクを定義します。
我々は、マルチモーダルデータから重要な概念情報を組み込むことができるより効果的なクロスモーダルモデルを訓練するために活用する。
論文 参考訳(メタデータ) (2022-06-17T15:40:45Z) - Semantic Representation and Dependency Learning for Multi-Label Image
Recognition [76.52120002993728]
本稿では,各カテゴリのカテゴリ固有のセマンティック表現を学習するための,新しい,効果的なセマンティック表現と依存性学習(SRDL)フレームワークを提案する。
具体的には,カテゴリー別注意領域(CAR)モジュールを設計し,チャネル/空間的注意行列を生成してモデルを導出する。
また、カテゴリ間のセマンティック依存を暗黙的に学習するオブジェクト消去(OE)モジュールを設計し、セマンティック認識領域を消去する。
論文 参考訳(メタデータ) (2022-04-08T00:55:15Z) - CARCA: Context and Attribute-Aware Next-Item Recommendation via
Cross-Attention [7.573586022424399]
推奨設定では、ユーザのコンテキストとアイテム属性が、次に推奨するアイテムを決定する上で重要な役割を果たす。
本研究では,ユーザプロファイルの動的特性を,コンテキスト特徴やアイテム属性の観点から捉えることができるコンテキスト・属性対応レコメンデータモデルを提案する。
4つの実世界のレコメンデータシステムデータセットの実験では、提案モデルがアイテムレコメンデーションのタスクにおいて、すべての最先端モデルを著しく上回っていることが示されている。
論文 参考訳(メタデータ) (2022-04-04T13:22:28Z) - Adversarial Feature Augmentation and Normalization for Visual
Recognition [109.6834687220478]
最近のコンピュータビジョンの進歩は、分類モデルの一般化能力を改善するために、逆データ拡張を利用する。
本稿では,中間的特徴埋め込みにおける敵対的拡張を提唱する効率的かつ効率的な代替手法を提案する。
代表的なバックボーンネットワークを用いて,多様な視覚認識タスクにまたがる提案手法を検証する。
論文 参考訳(メタデータ) (2021-03-22T20:36:34Z) - Disentangled Graph Collaborative Filtering [100.26835145396782]
Disentangled Graph Collaborative Filtering (DGCF)は、インタラクションデータからユーザとアイテムの情報表現を学ぶための新しいモデルである。
ユーザ・イテムのインタラクション毎に意図を超越した分布をモデル化することにより、インテント・アウェアなインタラクショングラフと表現を反復的に洗練する。
DGCFはNGCF、DisenGCN、MacridVAEといった最先端モデルよりも大幅に改善されている。
論文 参考訳(メタデータ) (2020-07-03T15:37:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。