論文の概要: Temporal Interest-Driven Multimodal Personalized Content Generation
- arxiv url: http://arxiv.org/abs/2509.04330v1
- Date: Thu, 04 Sep 2025 15:49:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 20:21:10.210139
- Title: Temporal Interest-Driven Multimodal Personalized Content Generation
- Title(参考訳): 時間的関心駆動型マルチモーダルパーソナライズドコンテンツ生成
- Authors: Tian Miao,
- Abstract要約: 提案したTIMGenモデルは,ユーザの関心事の長期的進化をモデル化することで,課題に対処する。
テキスト、画像、ビデオ、オーディオなどのマルチモーダル機能の融合をサポートし、マルチモーダルの好みに基づいてカスタマイズされたコンテンツを提供する。
電子商取引、広告、オンライン教育、精密医療など、様々な応用シナリオに拡張することができる。
- 参考スコア(独自算出の注目度): 0.36260136172126667
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the dynamic evolution of user interests and the increasing multimodal demands in internet applications, personalized content generation strategies based on static interest preferences struggle to meet practical application requirements. The proposed TIMGen (Temporal Interest-driven Multimodal Generation) model addresses this challenge by modeling the long-term temporal evolution of users' interests and capturing dynamic interest representations with strong temporal dependencies. This model also supports the fusion of multimodal features, such as text, images, video, and audio, and delivers customized content based on multimodal preferences. TIMGen jointly learns temporal dependencies and modal preferences to obtain a unified interest representation, which it then generates to meet users' personalized content needs. TIMGen overcomes the shortcomings of personalized content recommendation methods based on static preferences, enabling flexible and dynamic modeling of users' multimodal interests, better understanding and capturing their interests and preferences. It can be extended to a variety of practical application scenarios, including e-commerce, advertising, online education, and precision medicine, providing insights for future research.
- Abstract(参考訳): ユーザ関心のダイナミックな進化とインターネットアプリケーションにおけるマルチモーダル需要の増加により、静的な嗜好に基づくパーソナライズされたコンテンツ生成戦略は、実用的なアプリケーション要件を満たすのに苦労する。
提案したTIMGen(Temporal Interest-driven Multimodal Generation)モデルは,ユーザの興味の長期的時間的進化をモデル化し,時間的依存の強い動的関心表現をキャプチャすることで,この問題に対処する。
このモデルは、テキスト、画像、ビデオ、オーディオなどのマルチモーダル機能の融合をサポートし、マルチモーダルの好みに基づいてカスタマイズされたコンテンツを提供する。
TIMGenは、時間的依存関係とモーダルな嗜好を共同で学習し、統合された関心表現を取得し、ユーザのパーソナライズされたコンテンツニーズを満たすために生成する。
TIMGenは、静的な嗜好に基づくパーソナライズされたコンテンツレコメンデーション手法の欠点を克服し、ユーザのマルチモーダルな関心事のフレキシブルでダイナミックなモデリングを可能にし、興味事や嗜好の理解を深める。
電子商取引、広告、オンライン教育、精密医療など、様々な応用シナリオに拡張でき、将来の研究への洞察を提供することができる。
関連論文リスト
- Dynamic Forgetting and Spatio-Temporal Periodic Interest Modeling for Local-Life Service Recommendation [9.891466361996395]
本稿では,リフレッシュ曲線を導入し,ローカルライフサービスレコメンデーションのための長い周期シーケンスのSTIMを提案する。
STIM法の導入により,オンラインA/Bテストを行い,総取引量(GTV)が1.54%向上した。
STIMは大規模なローカルライフサービスレコメンデーションシステムにデプロイされ、コアアプリケーションのシナリオにおいて、毎日数億人のアクティブユーザを提供する。
論文 参考訳(メタデータ) (2025-08-04T14:16:49Z) - Enhancing User Intent for Recommendation Systems via Large Language Models [0.0]
DUIPはLSTMネットワークとLLM(Large Language Models)を組み合わせた新しいフレームワークで、ユーザの意図を動的に把握し、パーソナライズされたアイテムレコメンデーションを生成する。
この結果から,DUIPは次世代レコメンデーションシステムにとって有望なアプローチであり,クロスモーダルレコメンデーションとスケーラビリティのさらなる向上の可能性が示唆された。
論文 参考訳(メタデータ) (2025-01-18T20:35:03Z) - LLM-based Bi-level Multi-interest Learning Framework for Sequential Recommendation [54.396000434574454]
本稿では,暗黙的行動と明示的意味論的視点を組み合わせた新しい多目的SRフレームワークを提案する。
Implicit Behavioral Interest ModuleとExplicit Semantic Interest Moduleの2つのモジュールが含まれている。
4つの実世界のデータセットの実験は、フレームワークの有効性と実用性を検証する。
論文 参考訳(メタデータ) (2024-11-14T13:00:23Z) - Towards Unified Multi-Modal Personalization: Large Vision-Language Models for Generative Recommendation and Beyond [87.1712108247199]
我々の目標は、マルチモーダルパーソナライゼーションシステム(UniMP)のための統一パラダイムを確立することである。
我々は、幅広いパーソナライズされたニーズに対処できる汎用的でパーソナライズされた生成フレームワークを開発する。
我々の手法は、パーソナライズされたタスクのための基礎言語モデルの能力を高める。
論文 参考訳(メタデータ) (2024-03-15T20:21:31Z) - MISSRec: Pre-training and Transferring Multi-modal Interest-aware
Sequence Representation for Recommendation [61.45986275328629]
逐次レコメンデーションのためのマルチモーダル事前学習・転送学習フレームワークであるMISSRecを提案する。
ユーザ側ではトランスフォーマーベースのエンコーダデコーダモデルを設計し、コンテキストエンコーダがシーケンスレベルのマルチモーダルユーザ興味を捉えることを学習する。
候補項目側では,ユーザ適応項目表現を生成するために動的融合モジュールを採用する。
論文 参考訳(メタデータ) (2023-08-22T04:06:56Z) - Multi-Behavior Sequential Recommendation with Temporal Graph Transformer [66.10169268762014]
マルチビヘイビア・インタラクティブなパターンを意識した動的ユーザ・イテム関係学習に取り組む。
本稿では,動的短期および長期のユーザ・イテム対話パターンを共同でキャプチャする,TGT(Temporal Graph Transformer)レコメンデーションフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-06T15:42:54Z) - MRIF: Multi-resolution Interest Fusion for Recommendation [0.0]
本稿では,ユーザの利害関係を考慮に入れた多分解能利害融合モデル(MRIF)を提案する。
提案モデルでは,ユーザの興味の動的変化を異なる時間範囲で捉えることができ,マルチ解像度のユーザ関心を組み合わせて予測を行う効果的な方法を提供する。
論文 参考訳(メタデータ) (2020-07-08T02:32:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。