論文の概要: Vectorized Context-Aware Embeddings for GAT-Based Collaborative Filtering
- arxiv url: http://arxiv.org/abs/2510.26461v1
- Date: Thu, 30 Oct 2025 13:07:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.816553
- Title: Vectorized Context-Aware Embeddings for GAT-Based Collaborative Filtering
- Title(参考訳): GATに基づく協調フィルタリングのためのベクトル化コンテキスト認識埋め込み
- Authors: Danial Ebrat, Sepideh Ahmadian, Luis Rueda,
- Abstract要約: 本稿では,Large Language Model (LLM) により拡張されたグラフ注意ネットワーク(GAT)ベースの協調フィルタリングフレームワークについて述べる。
MovieLens 100kと1Mデータセットの実験では、Precision、NDCG、MAPの最先端ベースラインに対して一貫した改善が見られた。
提案手法は,LLMに基づく文脈理解をグラフアーキテクチャに組み込むことで,空間性やコールドスタートの制限を効果的に緩和する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recommender systems often struggle with data sparsity and cold-start scenarios, limiting their ability to provide accurate suggestions for new or infrequent users. This paper presents a Graph Attention Network (GAT) based Collaborative Filtering (CF) framework enhanced with Large Language Model (LLM) driven context aware embeddings. Specifically, we generate concise textual user profiles and unify item metadata (titles, genres, overviews) into rich textual embeddings, injecting these as initial node features in a bipartite user item graph. To further optimize ranking performance, we introduce a hybrid loss function that combines Bayesian Personalized Ranking (BPR) with a cosine similarity term and robust negative sampling, ensuring explicit negative feedback is distinguished from unobserved data. Experiments on the MovieLens 100k and 1M datasets show consistent improvements over state-of-the-art baselines in Precision, NDCG, and MAP while demonstrating robustness for users with limited interaction history. Ablation studies confirm the critical role of LLM-augmented embeddings and the cosine similarity term in capturing nuanced semantic relationships. Our approach effectively mitigates sparsity and cold-start limitations by integrating LLM-derived contextual understanding into graph-based architectures. Future directions include balancing recommendation accuracy with coverage and diversity, and introducing fairness-aware constraints and interpretability features to enhance system performance further.
- Abstract(参考訳): リコメンダシステムは、しばしばデータスパーシリティとコールドスタートシナリオに苦しむため、新しいユーザや頻度の低いユーザに対して正確な提案を提供する能力を制限する。
本稿では,Large Language Model (LLM) により拡張されたグラフ注意ネットワーク(GAT)ベースの協調フィルタリング(CF)フレームワークを提案する。
具体的には、簡潔なテキストのユーザプロファイルを生成し、アイテムメタデータ(タイトル、ジャンル、概要)をリッチなテキストの埋め込みに統合し、これらを二部構成のユーザアイテムグラフに初期ノード機能として注入する。
さらにランク付け性能を最適化するために,ベイジアンパーソナライズド・ランキング(BPR)とコサイン類似項とロバスト・ネガティブ・サンプリングを組み合わせたハイブリッド・ロス関数を導入する。
MovieLens 100kと1Mデータセットの実験では、Precision、NDCG、MAPにおける最先端のベースラインに対する一貫した改善と、限られたインタラクション履歴を持つユーザに対する堅牢性を示している。
アブレーション研究は、LLMを付加した埋め込みとコサイン類似性の項が、ニュアンスド・セマンティックな関係を捉える上で重要な役割を担っていることを証明している。
提案手法は,LLMに基づく文脈理解をグラフアーキテクチャに組み込むことで,空間性やコールドスタートの制限を効果的に緩和する。
将来的な方向性としては、リコメンデーションの精度とカバレッジと多様性のバランスをとること、システムパフォーマンスをさらに向上するための公正な制約と解釈可能性機能の導入がある。
関連論文リスト
- End-to-End Personalization: Unifying Recommender Systems with Large Language Models [0.0]
グラフ注意ネットワーク(GAT)と大言語モデル(LLM)を組み合わせた新しいハイブリッドレコメンデーションフレームワークを提案する。
LLMは、タイトル、ジャンル、概要などのメタデータに基づいて意味的に意味のあるプロファイルを生成することによって、ユーザーとアイテムの表現を豊かにするために最初に使用される。
MovieLens 100kと1Mを含むベンチマークデータセットでモデルを評価し、強いベースラインを一貫して上回ります。
論文 参考訳(メタデータ) (2025-08-02T22:46:50Z) - Unveiling Contrastive Learning's Capability of Neighborhood Aggregation for Collaborative Filtering [16.02820746003461]
グラフコントラスト学習(GCL)は、リコメンデータシステムにおいて、徐々に支配的なアプローチになりつつある。
本稿では,CL目標の勾配降下過程がグラフ畳み込みと正式に等価であることを明らかにする。
そこで本稿では,ユーザを他のポジティブなペアから遠ざけながら,対話するすべてのアイテムに近づけるための,新しいエリアアグリゲーションの目標を提案する。
論文 参考訳(メタデータ) (2025-04-14T11:22:41Z) - SymCERE: Symmetric Contrastive Learning for Robust Review-Enhanced Recommendation [2.087411180679868]
提案するSymCEREは,提案する偽陰性に対処するコントラスト学習手法である。
3つのプラットフォームからの15のデータセットの実験では、SymCEREがいくつかの強力なベースラインを上回っていることが示されている。
論文 参考訳(メタデータ) (2025-04-03T00:40:09Z) - Training Large Recommendation Models via Graph-Language Token Alignment [53.3142545812349]
本稿では,グラフ言語トークンアライメントによる大規模推薦モデルのトレーニングを行う新しいフレームワークを提案する。
インタラクショングラフからアイテムとユーザノードを事前訓練されたLLMトークンにアライメントすることで、GLTAはLLMの推論能力を効果的に活用する。
さらに、エンドツーエンドのアイテム予測のためのトークンアライメントを最適化するために、GLLM(Graph-Language Logits Matching)を導入する。
論文 参考訳(メタデータ) (2025-02-26T02:19:10Z) - RecLM: Recommendation Instruction Tuning [17.780484832381994]
本稿では,大規模言語モデルと協調フィルタリングをシームレスに統合するモデル非依存の指導訓練パラダイムを提案する。
提案した$underlineRec$ommendationは、慎重に設計された強化学習報酬関数により、ユーザの好みの多様性を捕捉する。
論文 参考訳(メタデータ) (2024-12-26T17:51:54Z) - Enhancing Graph Contrastive Learning with Reliable and Informative Augmentation for Recommendation [84.45144851024257]
離散コードによるより強力な協調情報を用いて、コントラスト的なビューを構築することにより、グラフのコントラスト学習を強化することを目的とした、新しいフレームワークを提案する。
中心となる考え方は、ユーザとアイテムを協調情報に富んだ離散コードにマッピングし、信頼性と情報に富んだコントラッシブなビュー生成を可能にすることである。
論文 参考訳(メタデータ) (2024-09-09T14:04:17Z) - CELA: Cost-Efficient Language Model Alignment for CTR Prediction [70.65910069412944]
CTR(Click-Through Rate)予測は、レコメンダシステムにおいて最重要位置を占める。
最近の取り組みは、プレトレーニング言語モデル(PLM)を統合することでこれらの課題を緩和しようとしている。
CTR予測のためのtextbfCost-textbfEfficient textbfLanguage Model textbfAlignment (textbfCELA)を提案する。
論文 参考訳(メタデータ) (2024-05-17T07:43:25Z) - Ordinal Graph Gamma Belief Network for Social Recommender Systems [54.9487910312535]
我々は,階層型ベイズモデルであるオーディナルグラフファクター解析(OGFA)を開発し,ユーザ・イテムとユーザ・ユーザインタラクションを共同でモデル化する。
OGFAは、優れたレコメンデーションパフォーマンスを達成するだけでなく、代表ユーザの好みに応じた解釈可能な潜在因子も抽出する。
我々はOGFAを,マルチ確率層深層確率モデルであるオーディナルグラフガンマ信念ネットワークに拡張する。
論文 参考訳(メタデータ) (2022-09-12T09:19:22Z) - FactGraph: Evaluating Factuality in Summarization with Semantic Graph
Representations [114.94628499698096]
文書と要約を構造化された意味表現(MR)に分解するFactGraphを提案する。
MRは、コアセマンティックの概念とその関係を記述し、文書と要約の両方の主要な内容を標準形式で集約し、データの疎結合を減少させる。
事実性を評価するための異なるベンチマークの実験では、FactGraphは以前のアプローチよりも最大15%優れていた。
論文 参考訳(メタデータ) (2022-04-13T16:45:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。