論文の概要: Co-NAML-LSTUR: A Combined Model with Attentive Multi-View Learning and Long- and Short-term User Representations for News Recommendation
- arxiv url: http://arxiv.org/abs/2507.20210v1
- Date: Sun, 27 Jul 2025 10:18:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:57.267548
- Title: Co-NAML-LSTUR: A Combined Model with Attentive Multi-View Learning and Long- and Short-term User Representations for News Recommendation
- Title(参考訳): Co-NAML-LSTUR:ニュースレコメンデーションのための注意的多視点学習と長期的・短期的ユーザ表現を組み合わせたモデル
- Authors: Minh Hoang Nguyen, Thuat Thien Nguyen, Minh Nhat Ta,
- Abstract要約: ニュースレコメンデーションシステムは、パーソナライズされたニュースコンテンツを配信することで、情報の過負荷を軽減する上で重要な役割を果たす。
中心的な課題は、マルチビューニュース表現とユーザ興味の動的な性質の両方を効果的にモデル化することである。
本稿では,マルチビューニュースモデリングにNAMLを統合したハイブリッドニュースレコメンデーションフレームワークCo-NAML-LSTURと,ユーザの好みを捉えるLSTURを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: News recommendation systems play a vital role in mitigating information overload by delivering personalized news content. A central challenge is to effectively model both multi-view news representations and the dynamic nature of user interests, which often span both short- and long-term preferences. Existing methods typically rely on single-view features of news articles (e.g., titles or categories) or fail to comprehensively capture user preferences across time scales. In this work, we propose Co-NAML-LSTUR, a hybrid news recommendation framework that integrates NAML for attentive multi-view news modeling and LSTUR for capturing both long- and short-term user representations. Our model also incorporates BERT-based word embeddings to enhance semantic feature extraction. We evaluate Co-NAML-LSTUR on two widely used benchmarks, MIND-small and MIND-large. Experimental results show that Co-NAML-LSTUR achieves substantial improvements over most state-of-the-art baselines on MIND-small and MIND-large, respectively. These results demonstrate the effectiveness of combining multi-view news representations with dual-scale user modeling. The implementation of our model is publicly available at https://github.com/MinhNguyenDS/Co-NAML-LSTUR.
- Abstract(参考訳): ニュースレコメンデーションシステムは、パーソナライズされたニュースコンテンツを配信することで、情報の過負荷を軽減する上で重要な役割を果たす。
中心的な課題は、複数視点のニュース表現と、短期と長期の両方にまたがるユーザの興味の動的な性質の両方を効果的にモデル化することである。
既存の方法は通常、ニュース記事(タイトルやカテゴリなど)の単一ビュー機能に依存している。
本研究では,多視点ニュースモデリングにNAMLを統合したハイブリッドニュースレコメンデーションフレームワークCo-NAML-LSTURと,長期および短期両方のユーザ表現をキャプチャするLSTURを提案する。
また,BERTに基づく単語埋め込みを取り入れ,意味的特徴抽出を強化した。
我々は、MIND-smallとMIND-largeの2つの広く使われているベンチマークでCo-NAML-LSTURを評価した。
実験結果から, Co-NAML-LSTURは, MIND-small および MIND-large のほとんどの最先端ベースラインよりも大幅に改善されていることがわかった。
これらの結果は、マルチビューニュース表現とデュアルスケールユーザモデリングの組み合わせの有効性を示す。
我々のモデルの実装はhttps://github.com/MinhNguyenDS/Co-NAML-LSTURで公開されています。
関連論文リスト
- Unifying Multimodal Large Language Model Capabilities and Modalities via Model Merging [103.98582374569789]
モデルマージは、複数のエキスパートモデルを単一のモデルにまとめることを目的としており、ストレージとサービスコストを削減している。
これまでの研究は主に、コードと数学のタスクに視覚分類モデルやLLM(Large Language Models)を統合することに焦点を当ててきた。
本稿では,VQA,Geometry,Chart,OCR,Gundingといった複数のタスクを含むMLLMのモデルマージベンチマークを紹介する。
論文 参考訳(メタデータ) (2025-05-26T12:23:14Z) - Enhancing News Recommendation with Hierarchical LLM Prompting [17.481812986550633]
パーソナライズされたニュースレコメンデーションのための大規模言語モデルのためのPNR-LLMを紹介する。
PNR-LLMはLLMの生成能力を利用してニュースタイトルや要約を充実させる。
本稿では,統合されたユーザとニュースの埋め込みを形成する,リッチなセマンティックおよびエンティティレベルのデータを集約するアテンション機構を提案する。
論文 参考訳(メタデータ) (2025-04-29T06:02:16Z) - Exploring Multi-Grained Concept Annotations for Multimodal Large Language Models [55.25892137362187]
MLLMのためのMMGiCアノテーション(Multimodal Multi-Grained Concept Annotation)を特徴とする新しいデータセットを提案する。
分析の結果,構造化テンプレートと汎用MLLMフレームワークの下で,多義的な概念アノテーションが相互に統合され,補完されることが明らかとなった。
さらに,12のマルチモーダル理解および生成ベンチマークにおいて,MMGiCと画像キャプチャデータとの公正な比較と効果的な協調関係を検証し,我々の仮説を検証した。
論文 参考訳(メタデータ) (2024-12-08T13:45:44Z) - LLM-based Bi-level Multi-interest Learning Framework for Sequential Recommendation [54.396000434574454]
本稿では,暗黙的行動と明示的意味論的視点を組み合わせた新しい多目的SRフレームワークを提案する。
Implicit Behavioral Interest ModuleとExplicit Semantic Interest Moduleの2つのモジュールが含まれている。
4つの実世界のデータセットの実験は、フレームワークの有効性と実用性を検証する。
論文 参考訳(メタデータ) (2024-11-14T13:00:23Z) - Personalized News Recommendation System via LLM Embedding and Co-Occurrence Patterns [6.4561443264763625]
ニュースレコメンデーション(NR)では、システムは大量のクリックされたニューステキストを理解し処理し、候補のニュースクリックの確率を推測しなければならない。
本稿では,LLM埋め込みと共起パターン(LECOP)を用いた新しいNRアルゴリズムを提案する。
大規模実験により,提案手法の優れた性能を実証した。
論文 参考訳(メタデータ) (2024-11-09T03:01:49Z) - Triple Modality Fusion: Aligning Visual, Textual, and Graph Data with Large Language Models for Multi-Behavior Recommendations [13.878297630442674]
本稿では,三重モダリティの融合を活かした,多行動レコメンデーションのための新しいフレームワークを提案する。
提案モデルであるTriple Modality Fusion (TMF)は,大規模言語モデル(LLM)のパワーを利用して,これらの3つのモダリティを調整・統合する。
大規模な実験により,提案手法の有効性が示唆された。
論文 参考訳(メタデータ) (2024-10-16T04:44:15Z) - NoteLLM-2: Multimodal Large Representation Models for Recommendation [71.87790090964734]
大規模言語モデル(LLM)は、テキスト理解や埋め込みタスクにおいて、例外的な習熟度を示している。
マルチモーダル表現のポテンシャル、特にアイテムツーイテム(I2I)レコメンデーションについては、未解明のままである。
本稿では,既存のLLMと視覚エンコーダの統合をカスタマイズし,効率的なマルチモーダル表現を実現するエンド・ツー・エンドのファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2024-05-27T03:24:01Z) - VLSNR:Vision-Linguistics Coordination Time Sequence-aware News
Recommendation [0.0]
マルチモーダルセマンティクスは、ユーザの時間的および長期的関心の理解を高めるのに有用である。
本研究では,視覚言語による時系列ニュースレコメンデーションを提案する。
また,大規模なマルチモーダルニュースレコメンデーションデータセットV-MINDを構築した。
論文 参考訳(メタデータ) (2022-10-06T14:27:37Z) - Learning Dual Dynamic Representations on Time-Sliced User-Item
Interaction Graphs for Sequential Recommendation [62.30552176649873]
シーケンシャルレコメンデーションのための動的表現学習モデル(DRL-SRe)を考案する。
両面から動的に特徴付けるためのユーザ・イテム相互作用をモデル化するため,提案モデルでは,時間スライス毎にグローバルなユーザ・イテム相互作用グラフを構築した。
モデルが微粒な時間情報を捕捉することを可能にするため,連続時間スライス上での補助的時間予測タスクを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:44:27Z) - VMSMO: Learning to Generate Multimodal Summary for Video-based News
Articles [63.32111010686954]
マルチモーダル出力(VMSMO)を用いたビデオベースマルチモーダル要約の課題を提案する。
このタスクの主な課題は、ビデオの時間的依存性と記事の意味を共同でモデル化することである。
本稿では,デュアルインタラクションモジュールとマルチモーダルジェネレータからなるDual-Interaction-based Multimodal Summarizer (DIMS)を提案する。
論文 参考訳(メタデータ) (2020-10-12T02:19:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。