論文の概要: Attention-based sequential recommendation system using multimodal data
- arxiv url: http://arxiv.org/abs/2405.17959v1
- Date: Tue, 28 May 2024 08:41:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-29 19:28:09.186768
- Title: Attention-based sequential recommendation system using multimodal data
- Title(参考訳): マルチモーダルデータを用いたアテンションベースシーケンシャルレコメンデーションシステム
- Authors: Hyungtaik Oh, Wonkeun Jo, Dongil Kim,
- Abstract要約: 本稿では,画像やテキスト,カテゴリといった項目のマルチモーダルなデータを用いた注意に基づくシーケンシャルレコメンデーション手法を提案する。
Amazonデータセットから得られた実験結果は,提案手法が従来の逐次レコメンデーションシステムよりも優れていることを示している。
- 参考スコア(独自算出の注目度): 8.110978727364397
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sequential recommendation systems that model dynamic preferences based on a use's past behavior are crucial to e-commerce. Recent studies on these systems have considered various types of information such as images and texts. However, multimodal data have not yet been utilized directly to recommend products to users. In this study, we propose an attention-based sequential recommendation method that employs multimodal data of items such as images, texts, and categories. First, we extract image and text features from pre-trained VGG and BERT and convert categories into multi-labeled forms. Subsequently, attention operations are performed independent of the item sequence and multimodal representations. Finally, the individual attention information is integrated through an attention fusion function. In addition, we apply multitask learning loss for each modality to improve the generalization performance. The experimental results obtained from the Amazon datasets show that the proposed method outperforms those of conventional sequential recommendation systems.
- Abstract(参考訳): 使用者の過去の行動に基づいた動的嗜好をモデル化するシーケンスレコメンデーションシステムは、電子商取引にとって不可欠である。
これらのシステムに関する最近の研究は、画像やテキストなど様々な種類の情報について考察している。
しかし、マルチモーダルデータが直接利用されてはいない。
本研究では,画像やテキスト,カテゴリといった項目のマルチモーダルデータを利用した注意に基づく逐次レコメンデーション手法を提案する。
まず,事前学習したVGGとBERTから画像とテキストの特徴を抽出し,カテゴリを多ラベル形式に変換する。
その後、アイテムシーケンスとマルチモーダル表現とは独立してアテンション操作を行う。
最後に、個別の注意情報を注目融合機能を介して統合する。
さらに,各モードにマルチタスク学習損失を適用し,一般化性能を向上させる。
Amazonデータセットから得られた実験結果は,提案手法が従来の逐次レコメンデーションシステムよりも優れていることを示している。
関連論文リスト
- Facet-Aware Multi-Head Mixture-of-Experts Model for Sequential Recommendation [25.516648802281626]
逐次レコメンデーションのためのFAME(Facet-Aware Multi-Head Mixture-of-Experts Model for Sequential Recommendation)という新しい構造を提案する。
最後のマルチヘッドアテンション層における各頭部からのサブ埋め込みを活用して,次の項目を別々に予測する。
ゲーティングメカニズムは、各ヘッドからのレコメンデーションを統合し、それらの重要性を動的に決定する。
論文 参考訳(メタデータ) (2024-11-03T06:47:45Z) - Ducho meets Elliot: Large-scale Benchmarks for Multimodal Recommendation [9.506245109666907]
商品やサービスを特徴付ける多面的機能は、オンライン販売プラットフォームにおいて、各顧客に影響を与える可能性がある。
一般的なマルチモーダルレコメンデーションパイプラインは、(i)マルチモーダルな特徴の抽出、(ii)レコメンデーションタスクに適したハイレベルな表現の精製、(iv)ユーザイテムスコアの予測を含む。
本論文は,マルチモーダルレコメンデータシステムに対する大規模ベンチマークを行う最初の試みとして,特にマルチモーダル抽出器に着目したものである。
論文 参考訳(メタデータ) (2024-09-24T08:29:10Z) - Do We Really Need to Drop Items with Missing Modalities in Multimodal Recommendation? [15.428850539237182]
我々は、(いくつかの)モダリティの欠如は、実際、マルチモーダルレコメンデーションにおいて広く拡散された現象であることを示した。
本稿では,機械学習における従来の計算手法を活用することで,欠落したマルチモーダル機能を推奨するパイプラインを提案する。
論文 参考訳(メタデータ) (2024-08-21T16:39:47Z) - A Unified Graph Transformer for Overcoming Isolations in Multi-modal Recommendation [9.720586396359906]
既存のマルチモーダルレコメンダシステムは、通常、特徴抽出とモダリティモデリングの両方に分離されたプロセスを使用する。
本稿では, マルチウェイ変換器を用いて, 整列したマルチモーダル特徴を抽出するUnified Multi-modal Graph Transformer (UGT) という新しいモデルを提案する。
UGTモデルは, 一般的に使用されるマルチモーダルレコメンデーション損失と共同最適化した場合に, 特に有意な有効性が得られることを示す。
論文 参考訳(メタデータ) (2024-07-29T11:04:31Z) - MMGRec: Multimodal Generative Recommendation with Transformer Model [81.61896141495144]
MMGRecは、マルチモーダルレコメンデーションに生成パラダイムを導入することを目指している。
まず,階層的な量子化手法であるGraph CF-RQVAEを考案し,各項目にRec-IDを割り当てる。
次に、Transformerベースのレコメンデータをトレーニングし、過去のインタラクションシーケンスに基づいて、ユーザが推奨するアイテムのRec-IDを生成する。
論文 参考訳(メタデータ) (2024-04-25T12:11:27Z) - BiVRec: Bidirectional View-based Multimodal Sequential Recommendation [55.87443627659778]
我々は,IDとマルチモーダルの両方で推薦タスクを共同で訓練する,革新的なフレームワークであるBivRecを提案する。
BivRecは5つのデータセットで最先端のパフォーマンスを達成し、様々な実用的な利点を示している。
論文 参考訳(メタデータ) (2024-02-27T09:10:41Z) - Exploiting Modality-Specific Features For Multi-Modal Manipulation
Detection And Grounding [54.49214267905562]
マルチモーダルな操作検出とグラウンド処理のためのトランスフォーマーベースのフレームワークを構築する。
本フレームワークは,マルチモーダルアライメントの能力を維持しながら,モダリティ特有の特徴を同時に探求する。
本稿では,グローバルな文脈的キューを各モーダル内に適応的に集約する暗黙的操作クエリ(IMQ)を提案する。
論文 参考訳(メタデータ) (2023-09-22T06:55:41Z) - MISSRec: Pre-training and Transferring Multi-modal Interest-aware
Sequence Representation for Recommendation [61.45986275328629]
逐次レコメンデーションのためのマルチモーダル事前学習・転送学習フレームワークであるMISSRecを提案する。
ユーザ側ではトランスフォーマーベースのエンコーダデコーダモデルを設計し、コンテキストエンコーダがシーケンスレベルのマルチモーダルユーザ興味を捉えることを学習する。
候補項目側では,ユーザ適応項目表現を生成するために動的融合モジュールを採用する。
論文 参考訳(メタデータ) (2023-08-22T04:06:56Z) - Multi-Behavior Sequential Recommendation with Temporal Graph Transformer [66.10169268762014]
マルチビヘイビア・インタラクティブなパターンを意識した動的ユーザ・イテム関係学習に取り組む。
本稿では,動的短期および長期のユーザ・イテム対話パターンを共同でキャプチャする,TGT(Temporal Graph Transformer)レコメンデーションフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-06T15:42:54Z) - Knowledge-Enhanced Hierarchical Graph Transformer Network for
Multi-Behavior Recommendation [56.12499090935242]
本研究では,ユーザとレコメンデータシステムにおける項目間の多種類の対話パターンを探索する知識強化階層型グラフトランスフォーマネットワーク(KHGT)を提案する。
KHGTはグラフ構造化ニューラルネットワーク上に構築され、タイプ固有の振る舞い特性をキャプチャする。
KHGTは、様々な評価設定において、最先端のレコメンデーション手法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2021-10-08T09:44:00Z) - Large Scale Multimodal Classification Using an Ensemble of Transformer
Models and Co-Attention [2.842794675894731]
本稿では,SIGIR eCom Rakuten Data Challengeの方法論と結果について述べる。
我々は、事前訓練された言語と画像埋め込みを用いて、画像とテキストの関係をモデル化するために、二重注意法を用いる。
論文 参考訳(メタデータ) (2020-11-23T21:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。