論文の概要: EAGER: Two-Stream Generative Recommender with Behavior-Semantic Collaboration
- arxiv url: http://arxiv.org/abs/2406.14017v2
- Date: Wed, 03 Jul 2024 10:00:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 21:11:17.606594
- Title: EAGER: Two-Stream Generative Recommender with Behavior-Semantic Collaboration
- Title(参考訳): EAGER: ビヘイビア・セマンティックコラボレーションを備えた2ストリーム生成レコメンダ
- Authors: Ye Wang, Jiahao Xun, Minjie Hong, Jieming Zhu, Tao Jin, Wang Lin, Haoyuan Li, Linjun Li, Yan Xia, Zhou Zhao, Zhenhua Dong,
- Abstract要約: 本稿では,行動情報と意味情報の両方をシームレスに統合する新しい生成推薦フレームワークであるEAGERを紹介する。
EAGERの有効性を4つの公開ベンチマークで検証し,既存手法と比較して優れた性能を示した。
- 参考スコア(独自算出の注目度): 63.112790050749695
- License:
- Abstract: Generative retrieval has recently emerged as a promising approach to sequential recommendation, framing candidate item retrieval as an autoregressive sequence generation problem. However, existing generative methods typically focus solely on either behavioral or semantic aspects of item information, neglecting their complementary nature and thus resulting in limited effectiveness. To address this limitation, we introduce EAGER, a novel generative recommendation framework that seamlessly integrates both behavioral and semantic information. Specifically, we identify three key challenges in combining these two types of information: a unified generative architecture capable of handling two feature types, ensuring sufficient and independent learning for each type, and fostering subtle interactions that enhance collaborative information utilization. To achieve these goals, we propose (1) a two-stream generation architecture leveraging a shared encoder and two separate decoders to decode behavior tokens and semantic tokens with a confidence-based ranking strategy; (2) a global contrastive task with summary tokens to achieve discriminative decoding for each type of information; and (3) a semantic-guided transfer task designed to implicitly promote cross-interactions through reconstruction and estimation objectives. We validate the effectiveness of EAGER on four public benchmarks, demonstrating its superior performance compared to existing methods.
- Abstract(参考訳): 近年, 自動回帰シーケンス生成問題として候補項目検索をフレーミングする, シーケンシャルレコメンデーションへの有望なアプローチとして, 生成検索が登場している。
しかし、既存の生成法は通常、アイテム情報の行動的側面または意味的側面にのみ焦点をあて、それらの相補的な性質を無視し、その結果、効果が制限される。
この制限に対処するために,行動情報と意味情報の両方をシームレスに統合する新しい生成的レコメンデーションフレームワークであるEAGERを紹介する。
具体的には,これら2種類の情報を組み合わせる上で重要な課題を3つ挙げる。2つの特徴型を扱える統一型生成アーキテクチャ,各タイプの十分な独立学習の確保,協調情報利用を促進する微妙な相互作用の促進である。
これらの目的を達成するために,(1)共有エンコーダと2つの分離されたデコーダを利用して行動トークンとセマンティックトークンを信頼に基づくランキング戦略でデコードする2ストリーム生成アーキテクチャ,(2)情報の種類ごとに識別的デコードを達成するための要約トークンを用いたグローバルコントラストタスク,(3)再構築と推定の目的を通じて暗黙的に相互行為を促進するように設計されたセマンティック誘導転送タスクを提案する。
EAGERの有効性を4つの公開ベンチマークで検証し,既存手法と比較して優れた性能を示した。
関連論文リスト
- Unifying Feature and Cost Aggregation with Transformers for Semantic and Visual Correspondence [51.54175067684008]
本稿では,高密度マッチングタスク用に設計されたTransformerベースの積分機能とコスト集約ネットワークを提案する。
まず, 特徴集約とコスト集約が異なる特徴を示し, 双方の集約プロセスの司法的利用から生じる実質的な利益の可能性を明らかにした。
本フレームワークは意味マッチングのための標準ベンチマークで評価され,また幾何マッチングにも適用された。
論文 参考訳(メタデータ) (2024-03-17T07:02:55Z) - Feature Decoupling-Recycling Network for Fast Interactive Segmentation [79.22497777645806]
近年のインタラクティブセグメンテーション手法では,入力としてソースイメージ,ユーザガイダンス,従来予測されていたマスクを反復的に取り込んでいる。
本稿では,本質的な相違点に基づいてモデリングコンポーネントを分離するFDRN(Feature Decoupling-Recycling Network)を提案する。
論文 参考訳(メタデータ) (2023-08-07T12:26:34Z) - From Alignment to Entailment: A Unified Textual Entailment Framework for
Entity Alignment [17.70562397382911]
既存のメソッドは通常、エンティティのトリプルを埋め込みとしてエンコードし、埋め込みの整列を学ぶ。
我々は両トリプルを統一されたテキストシーケンスに変換し、EAタスクを双方向のテキストエンタテインメントタスクとしてモデル化する。
提案手法は,エンティティ間の2種類の情報の統合相関パターンを捕捉し,元のエンティティ情報間のきめ細かい相互作用を明示的にモデル化する。
論文 参考訳(メタデータ) (2023-05-19T08:06:50Z) - RLIP: Relational Language-Image Pre-training for Human-Object
Interaction Detection [32.20132357830726]
言語画像事前学習(Language- Image Pre-Training、LIPR)は、エンティティと関係記述の両方を活用するコントラスト事前学習の戦略である。
RLIP-ParSeと呼ばれるこれらのコントリビューションの利点は、ゼロショット、少数ショット、微調整のHOI検出の改善、およびノイズアノテーションからの堅牢性の向上である。
論文 参考訳(メタデータ) (2022-09-05T07:50:54Z) - A cross-domain recommender system using deep coupled autoencoders [77.86290991564829]
クロスドメインレコメンデーションのために2つの新しい結合型オートエンコーダに基づくディープラーニング手法を提案する。
最初の方法は、ソースドメインとターゲットドメイン内のアイテムの固有表現を明らかにするために、一対のオートエンコーダを同時に学習することを目的としている。
第2の方法は,2つのオートエンコーダを用いてユーザとアイテム待ち行列を深く非線形に生成する,新たな共同正規化最適化問題に基づいて導出する。
論文 参考訳(メタデータ) (2021-12-08T15:14:26Z) - CTRN: Class-Temporal Relational Network for Action Detection [7.616556723260849]
エンドツーエンドネットワーク:CTRN(Class-Temporal Network)を導入する。
CTRNには、Transform Representation Module、Class-Temporal Module、G-classifierの3つの重要なコンポーネントが含まれている。
CTRを3つの高密度ラベル付きデータセット上で評価し、最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-10-26T08:15:47Z) - Joint Inductive and Transductive Learning for Video Object Segmentation [107.32760625159301]
半教師付きオブジェクトセグメンテーションは、第1フレームのマスクだけを与えられたビデオシーケンスで対象オブジェクトをセグメンテーションするタスクである。
過去の最も優れた手法は、マッチングベースの帰納的推論やオンライン帰納的学習を採用していた。
本稿では,トランスダクティブ学習とインダクティブ学習を統合したフレームワークに統合し,それら間の補完を利用して,高精度かつ堅牢なビデオオブジェクトセグメンテーションを提案する。
論文 参考訳(メタデータ) (2021-08-08T16:25:48Z) - Cascaded Human-Object Interaction Recognition [175.60439054047043]
マルチステージで粗大なHOI理解のためのカスケードアーキテクチャを提案する。
各段階で、インスタンスローカライゼーションネットワークは、HOI提案を段階的に洗練し、インタラクション認識ネットワークにフィードする。
慎重に設計された人間中心の関係機能により、これらの2つのモジュールは効果的な相互作用理解に向けて協調的に機能する。
論文 参考訳(メタデータ) (2020-03-09T17:05:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。