論文の概要: RecMind: LLM-Enhanced Graph Neural Networks for Personalized Consumer Recommendations
- arxiv url: http://arxiv.org/abs/2509.06286v1
- Date: Mon, 08 Sep 2025 02:15:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.940521
- Title: RecMind: LLM-Enhanced Graph Neural Networks for Personalized Consumer Recommendations
- Title(参考訳): RecMind:パーソナライズされたコンシューマレコメンデーションのためのLLM強化グラフニューラルネットワーク
- Authors: Chang Xue, Youwei Lu, Chen Yang, Jinming Xing,
- Abstract要約: パーソナライゼーションは,ストリーミング,ショッピング,ウェアラブル,音声といった,コンシューマテクノロジのコア機能です。
本稿では、モノリシックなランク付けの前に言語モデルを優先として扱うLLM強化グラフレコメンデータであるRecMindを紹介する。
YelpとAmazon-Electronicsでは、RecMindが報告されている8つの指標すべてに対して、強力なベースラインに対して、+4.53%(Recall@40)と+4.01%(NDCG@40)の相対的な改善を達成している。
- 参考スコア(独自算出の注目度): 1.9556834179471867
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Personalization is a core capability across consumer technologies, streaming, shopping, wearables, and voice, yet it remains challenged by sparse interactions, fast content churn, and heterogeneous textual signals. We present RecMind, an LLM-enhanced graph recommender that treats the language model as a preference prior rather than a monolithic ranker. A frozen LLM equipped with lightweight adapters produces text-conditioned user/item embeddings from titles, attributes, and reviews; a LightGCN backbone learns collaborative embeddings from the user-item graph. We align the two views with a symmetric contrastive objective and fuse them via intra-layer gating, allowing language to dominate in cold/long-tail regimes and graph structure to stabilize rankings elsewhere. On Yelp and Amazon-Electronics, RecMind attains the best results on all eight reported metrics, with relative improvements up to +4.53\% (Recall@40) and +4.01\% (NDCG@40) over strong baselines. Ablations confirm both the necessity of cross-view alignment and the advantage of gating over late fusion and LLM-only variants.
- Abstract(参考訳): パーソナライゼーションは、ストリーミング、ショッピング、ウェアラブル、音声といったコンシューマーテクノロジのコア機能であるが、疎結合、高速コンテンツチャーン、異質なテキスト信号によって依然として課題が残されている。
本稿では,言語モデルをモノリシックなランク付けよりも優先的に扱うLLM強化グラフレコメンデータであるRecMindを紹介する。
軽量アダプタを備えた冷凍LDMは、タイトル、属性、レビューからテキスト条件付きユーザ/イトムの埋め込みを生成し、LightGCNのバックボーンはユーザ-イットグラフから協調的な埋め込みを学習する。
両ビューを対称的なコントラスト目的に整合させ、層内ゲーティングを介して融合させ、言語がコールド/ロングテールのレギュレーションとグラフ構造で支配し、他の場所でランクを安定化させることを可能にする。
YelpとAmazon-Electronicsでは、RecMindがレポートされた8つの指標すべてに対して、強力なベースラインに対して、+4.53\%(Recall@40)と+4.01\%(NDCG@40)の相対的な改善を達成している。
アブレーションは、クロスビューアライメントの必要性と、後期核融合とLSMのみの変種に対するゲーティングの利点の両方を裏付ける。
関連論文リスト
- Vectorized Context-Aware Embeddings for GAT-Based Collaborative Filtering [0.0]
本稿では,Large Language Model (LLM) により拡張されたグラフ注意ネットワーク(GAT)ベースの協調フィルタリングフレームワークについて述べる。
MovieLens 100kと1Mデータセットの実験では、Precision、NDCG、MAPの最先端ベースラインに対して一貫した改善が見られた。
提案手法は,LLMに基づく文脈理解をグラフアーキテクチャに組み込むことで,空間性やコールドスタートの制限を効果的に緩和する。
論文 参考訳(メタデータ) (2025-10-30T13:07:39Z) - Iterative Critique-Refine Framework for Enhancing LLM Personalization [67.77803308645511]
PerFineは、パーソナライズされたテキスト生成のための、統一的でトレーニング不要な批判修正フレームワークである。
各イテレーションにおいて、LLMジェネレータは、検索されたプロファイルに条件付きドラフトを生成し、同じプロファイルに条件付きである批評家のLLMは、トーン、語彙、文構造、話題性に関する構造化されたフィードバックを提供する。
Yelp、Goodreads、Amazonのデータセット全体で、PerFineはPGraphRAGに対するパーソナライゼーションを一貫して改善している。
論文 参考訳(メタデータ) (2025-10-28T14:36:22Z) - End-to-End Personalization: Unifying Recommender Systems with Large Language Models [0.0]
グラフ注意ネットワーク(GAT)と大言語モデル(LLM)を組み合わせた新しいハイブリッドレコメンデーションフレームワークを提案する。
LLMは、タイトル、ジャンル、概要などのメタデータに基づいて意味的に意味のあるプロファイルを生成することによって、ユーザーとアイテムの表現を豊かにするために最初に使用される。
MovieLens 100kと1Mを含むベンチマークデータセットでモデルを評価し、強いベースラインを一貫して上回ります。
論文 参考訳(メタデータ) (2025-08-02T22:46:50Z) - Multimodal LLMs as Customized Reward Models for Text-to-Image Generation [60.164968941945645]
LLaVA-Rewardは、複数の視点でテキスト・ツー・イメージ(T2I)生成を自動評価する効率的な報酬モデルである。
LLaVA-Rewardはマルチモーダル大言語モデル(MLLM)の隠れ状態を直接利用する
LLaVA-Rewardは、テキストイメージアライメント、忠実さ/アーティファクト、安全性、全体的なランク付けの4つの観点でトレーニングします。
論文 参考訳(メタデータ) (2025-07-28T23:52:53Z) - Training Large Recommendation Models via Graph-Language Token Alignment [53.3142545812349]
本稿では,グラフ言語トークンアライメントによる大規模推薦モデルのトレーニングを行う新しいフレームワークを提案する。
インタラクショングラフからアイテムとユーザノードを事前訓練されたLLMトークンにアライメントすることで、GLTAはLLMの推論能力を効果的に活用する。
さらに、エンドツーエンドのアイテム予測のためのトークンアライメントを最適化するために、GLLM(Graph-Language Logits Matching)を導入する。
論文 参考訳(メタデータ) (2025-02-26T02:19:10Z) - EACO: Enhancing Alignment in Multimodal LLMs via Critical Observation [58.546205554954454]
臨界観測(EACO)によるMLLMのアライメント向上を提案する。
EACOは、経済的に5k画像のみを使用して、MLLMを自己生成の選好データで整列する。
EACOは幻覚全体の65.6%をHalusionBenchで減らし、MME-Cognitionで21.8%改善する。
論文 参考訳(メタデータ) (2024-12-06T09:59:47Z) - SocialGPT: Prompting LLMs for Social Relation Reasoning via Greedy Segment Optimization [70.11167263638562]
社会的関係推論は、友人、配偶者、同僚などの関係カテゴリを画像から識別することを目的としている。
まず、VFM(Vision Foundation Models)の知覚能力と、モジュラーフレームワーク内でのLLM(Large Language Models)の推論能力を組み合わせた、シンプルだが巧妙な名前のフレームワークを提示する。
論文 参考訳(メタデータ) (2024-10-28T18:10:26Z) - Beyond Retrieval: Generating Narratives in Conversational Recommender Systems [4.73461454584274]
本稿では,会話レコメンデーションにおける自然言語生成タスクのための新しいデータセット(REGEN)を提案する。
我々は、よく知られた生成指標を用いてベンチマークを作成し、レーダLEMを用いて新しいデータセットの自動評価を行う。
そして、私たちの知る限りでは、レコメンデーター信号を理解し、リッチな物語を生成することにおけるLLMの能力を分析する最初の試みである。
論文 参考訳(メタデータ) (2024-10-22T07:53:41Z) - ELCoRec: Enhance Language Understanding with Co-Propagation of Numerical and Categorical Features for Recommendation [38.64175351885443]
大規模言語モデルは自然言語処理(NLP)領域で栄えている。
レコメンデーション指向の微調整モデルによって示された知性にもかかわらず、LLMはユーザーの行動パターンを完全に理解するのに苦労している。
既存の作業は、その重要な情報を導入することなく、与えられたテキストデータに対してのみLLMを微調整するだけである。
論文 参考訳(メタデータ) (2024-06-27T01:37:57Z) - Parameter-Efficient Tuning Large Language Models for Graph Representation Learning [62.26278815157628]
Graph-awareを導入します。
GPEFT - グラフ表現学習のための新しい手法。
グラフニューラルネットワーク(GNN)を用いて、隣接するノードからグラフプロンプトに構造情報をエンコードする。
我々は8つの異なるテキストリッチグラフで実施した総合的な実験を通じて,リンク予測評価において hit@1 と Mean Reciprocal Rank (MRR) の平均 2% の改善を観察し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2024-04-28T18:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。