論文の概要: Generate, Not Recommend: Personalized Multimodal Content Generation
- arxiv url: http://arxiv.org/abs/2506.01704v1
- Date: Mon, 02 Jun 2025 14:10:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:34.481453
- Title: Generate, Not Recommend: Personalized Multimodal Content Generation
- Title(参考訳): パーソナライズされたマルチモーダルコンテンツ生成
- Authors: Jiongnan Liu, Zhicheng Dou, Ning Hu, Chenyan Xiong,
- Abstract要約: コンテンツフィルタリングと選択を超えて、パーソナライズされたアイテムを直接マルチモーダル形式で生成する新しいパラダイムを提案する。
我々は、LMM(Large Multimodal Models)を活用し、教師付き微調整およびオンライン強化学習戦略の両方でそれらを訓練する。
2つのベンチマークデータセットとユーザによる実験により,提案手法の有効性が確認された。
- 参考スコア(独自算出の注目度): 34.02112521797116
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: To address the challenge of information overload from massive web contents, recommender systems are widely applied to retrieve and present personalized results for users. However, recommendation tasks are inherently constrained to filtering existing items and lack the ability to generate novel concepts, limiting their capacity to fully satisfy user demands and preferences. In this paper, we propose a new paradigm that goes beyond content filtering and selecting: directly generating personalized items in a multimodal form, such as images, tailored to individual users. To accomplish this, we leverage any-to-any Large Multimodal Models (LMMs) and train them in both supervised fine-tuning and online reinforcement learning strategy to equip them with the ability to yield tailored next items for users. Experiments on two benchmark datasets and user study confirm the efficacy of the proposed method. Notably, the generated images not only align well with users' historical preferences but also exhibit relevance to their potential future interests.
- Abstract(参考訳): 大量のWebコンテンツからの情報過負荷に対処するために,ユーザに対してパーソナライズされた結果の検索と提示に,リコメンダシステムが広く適用されている。
しかし、リコメンデーションタスクは、既存のアイテムをフィルタリングすることや、新しい概念を生成する能力が欠如しているため、ユーザの要求や好みを完全に満たす能力に制限されている。
本稿では,コンテンツフィルタリングと選択を超えて,画像などのマルチモーダル形式でパーソナライズされたアイテムを直接生成する新しいパラダイムを提案する。
そこで我々は,LMM(Large Multimodal Models)を活用して,教師付き微調整とオンライン強化学習の両手法で学習し,ユーザに対して適切な次項目を得られるようにした。
2つのベンチマークデータセットとユーザによる実験により,提案手法の有効性が確認された。
特に、生成された画像は、ユーザの過去の好みと合致するだけでなく、将来的な関心事にも関連性を示す。
関連論文リスト
- Multi-agents based User Values Mining for Recommendation [52.26100802380767]
効率的なユーザ値抽出のためのゼロショットマルチLLM協調フレームワークを提案する。
本研究は,本質的な意味を保ちながら,項目内容のコンデンスにテキスト要約手法を適用した。
幻覚を緩和するために,評価役と監督役の2つの特殊エージェントの役割を導入する。
論文 参考訳(メタデータ) (2025-05-02T04:01:31Z) - EmbSum: Leveraging the Summarization Capabilities of Large Language Models for Content-Based Recommendations [38.44534579040017]
ユーザと候補項目のオフライン事前計算を可能にするフレームワークであるEmbSumを紹介する。
このモデルがユーザ興味の要約を生成する能力は貴重な副産物であり、パーソナライズされたコンテンツレコメンデーションに有用である。
論文 参考訳(メタデータ) (2024-05-19T04:31:54Z) - Towards Unified Multi-Modal Personalization: Large Vision-Language Models for Generative Recommendation and Beyond [87.1712108247199]
我々の目標は、マルチモーダルパーソナライゼーションシステム(UniMP)のための統一パラダイムを確立することである。
我々は、幅広いパーソナライズされたニーズに対処できる汎用的でパーソナライズされた生成フレームワークを開発する。
我々の手法は、パーソナライズされたタスクのための基礎言語モデルの能力を高める。
論文 参考訳(メタデータ) (2024-03-15T20:21:31Z) - InteraRec: Screenshot Based Recommendations Using Multimodal Large Language Models [0.6926105253992517]
InteraRecと呼ばれる洗練されたインタラクティブなレコメンデーションフレームワークを紹介します。
InteraRecは、ユーザがWebサイトをナビゲートするときに、Webページの高周波スクリーンショットをキャプチャする。
ユーザに対して価値あるパーソナライズされたオファリングを提供する上で、InteraRecの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-26T17:47:57Z) - Ada-Retrieval: An Adaptive Multi-Round Retrieval Paradigm for Sequential
Recommendations [50.03560306423678]
本稿では,レコメンダシステムのための適応型マルチラウンド検索パラダイムであるAda-Retrievalを提案する。
Ada-Retrievalは、ユーザー表現を反復的に洗練し、全項目領域の潜在的な候補をよりよく捉えます。
論文 参考訳(メタデータ) (2024-01-12T15:26:40Z) - PURS: Personalized Unexpected Recommender System for Improving User
Satisfaction [76.98616102965023]
本稿では、予期せぬことを推奨プロセスに組み込んだ、新しいPersonalized Unexpected Recommender System(PURS)モデルについて述べる。
3つの実世界のデータセットに対する大規模なオフライン実験は、提案されたPURSモデルが最先端のベースラインアプローチを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2021-06-05T01:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。