論文の概要: Multi-Modal Hypergraph Enhanced LLM Learning for Recommendation
- arxiv url: http://arxiv.org/abs/2504.10541v1
- Date: Sun, 13 Apr 2025 09:12:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-16 22:10:50.641052
- Title: Multi-Modal Hypergraph Enhanced LLM Learning for Recommendation
- Title(参考訳): マルチモーダルハイパーグラフによるLLM学習
- Authors: Xu Guo, Tong Zhang, Yuanzhi Wang, Chenxu Wang, Fuyun Wang, Xudong Wang, Xiaoya Zhang, Xin Liu, Zhen Cui,
- Abstract要約: マルチモーダル・レコメンデーション(HeLLM)のための新しいフレームワークHypergraph Enhanced LLM Learningを提案する。
グラフレベルの文脈信号とシーケンスレベルの行動パターンを融合させることにより、複雑な高階意味的相関を捕捉する能力をLLMに装備する。
推薦者の事前学習フェーズでは、ユーザ間の共有された関心関係の選好を明らかにするために、ユーザハイパーグラフを設計する。
ハイパーグラフ畳み込みと相乗的コントラスト学習機構を導入し、学習された表現の識別可能性を高める。
- 参考スコア(独自算出の注目度): 27.583326184212194
- License:
- Abstract: The burgeoning presence of Large Language Models (LLM) is propelling the development of personalized recommender systems. Most existing LLM-based methods fail to sufficiently explore the multi-view graph structure correlations inherent in recommendation scenarios. To this end, we propose a novel framework, Hypergraph Enhanced LLM Learning for multimodal Recommendation (HeLLM), designed to equip LLMs with the capability to capture intricate higher-order semantic correlations by fusing graph-level contextual signals with sequence-level behavioral patterns. In the recommender pre-training phase, we design a user hypergraph to uncover shared interest preferences among users and an item hypergraph to capture correlations within multimodal similarities among items. The hypergraph convolution and synergistic contrastive learning mechanism are introduced to enhance the distinguishability of learned representations. In the LLM fine-tuning phase, we inject the learned graph-structured embeddings directly into the LLM's architecture and integrate sequential features capturing each user's chronological behavior. This process enables hypergraphs to leverage graph-structured information as global context, enhancing the LLM's ability to perceive complex relational patterns and integrate multimodal information, while also modeling local temporal dynamics. Extensive experiments demonstrate the superiority of our proposed method over state-of-the-art baselines, confirming the advantages of fusing hypergraph-based context with sequential user behavior in LLMs for recommendation.
- Abstract(参考訳): LLM(Large Language Models)の存在は、パーソナライズされたレコメンデーションシステムの開発を促している。
既存のLCMベースの手法の多くは、レコメンデーションシナリオに固有のマルチビューグラフ構造相関を十分に探求することができない。
そこで本研究では,マルチモーダルレコメンデーションのためのHypergraph Enhanced LLM Learning(HeLLM)を提案する。
推薦者の事前学習フェーズにおいて、ユーザ間での共有関心関係を明らかにするためのユーザハイパーグラフと、アイテム間のマルチモーダル類似性内の相関関係を抽出するアイテムハイパーグラフを設計する。
ハイパーグラフ畳み込みと相乗的コントラスト学習機構を導入し、学習された表現の識別可能性を高める。
LLMファインチューニングフェーズでは、学習したグラフ構造化埋め込みを直接LLMアーキテクチャに注入し、各ユーザの時系列動作をキャプチャするシーケンシャル機能を統合する。
このプロセスにより、ハイパーグラフはグラフ構造化情報をグローバルな文脈として活用し、LLMの複雑な関係パターンを知覚し、マルチモーダル情報を統合する能力を高めるとともに、局所時間力学をモデル化することができる。
提案手法が最先端のベースラインよりも優れていることを実証し,LLMに逐次的ユーザ動作を持つハイパーグラフベースのコンテキストを融合させることの利点を確認した。
関連論文リスト
- Improving Autoregressive Visual Generation with Cluster-Oriented Token Prediction [52.09472099976885]
IARは、LLMベースのビジュアル生成モデルのトレーニング効率と生成品質を向上させる改良された自動回帰ビジュアル生成方法である。
提案手法は,モデルのトレーニング効率と性能を100Mから1.4Bに継続的に向上させ,同じFIDを達成しながらトレーニング時間を半減させる。
論文 参考訳(メタデータ) (2025-01-01T15:58:51Z) - Bridging Large Language Models and Graph Structure Learning Models for Robust Representation Learning [22.993015048941444]
グラフ表現学習は現実世界のアプリケーションには不可欠だが、広範にわたるノイズに遭遇することが多い。
本稿では,事前学習された言語モデルとグラフ構造学習モデルの相補的な長所を統合するフレームワークであるLangGSLを紹介する。
論文 参考訳(メタデータ) (2024-10-15T22:43:32Z) - Enhancing High-order Interaction Awareness in LLM-based Recommender Model [3.7623606729515133]
本稿では,LLMベースのリコメンデータ(ELMRec)について述べる。
我々は、レコメンデーションのためのグラフ構築相互作用のLLM解釈を大幅に強化するために、単語全体の埋め込みを強化する。
ELMRecは、直接およびシーケンシャルなレコメンデーションの両方において、最先端(SOTA)メソッドよりも優れています。
論文 参考訳(メタデータ) (2024-09-30T06:07:12Z) - Beyond Inter-Item Relations: Dynamic Adaption for Enhancing LLM-Based Sequential Recommendation [83.87767101732351]
逐次リコメンデータシステム(SRS)は,ユーザの過去のインタラクションシーケンスに基づいて,ユーザが好む次の項目を予測する。
様々なAIアプリケーションにおける大規模言語モデル(LLM)の台頭に触発されて、LLMベースのSRSの研究が急増している。
我々は,大きめの粒度適応の上に構築された逐次レコメンデーションモデルであるDARecを提案する。
論文 参考訳(メタデータ) (2024-08-14T10:03:40Z) - All Against Some: Efficient Integration of Large Language Models for Message Passing in Graph Neural Networks [51.19110891434727]
事前訓練された知識と強力なセマンティック理解能力を持つ大規模言語モデル(LLM)は、最近、視覚とテキストデータを使用してアプリケーションに恩恵をもたらす顕著な能力を示している。
E-LLaGNNは、グラフから限られたノード数を増やして、グラフ学習のメッセージパッシング手順を強化するオンデマンドLLMサービスを備えたフレームワークである。
論文 参考訳(メタデータ) (2024-07-20T22:09:42Z) - DynLLM: When Large Language Models Meet Dynamic Graph Recommendation [43.05028974086236]
我々はDynLLMと呼ばれる新しいフレームワークを提案し、大規模言語モデルを用いた動的グラフ推薦タスクに対処する。
特に、DynLLMはLLMの力を利用して、履歴購入記録の豊富なテキストの特徴に基づいて、多面的なユーザプロファイルを生成する。
2つの実電子商取引データセットの実験は、幅広い最先端のベースライン手法よりも優れたDynLLMの改善を実証した。
論文 参考訳(メタデータ) (2024-05-13T09:36:17Z) - Integrating Large Language Models with Graphical Session-Based
Recommendation [8.086277931395212]
LLMGRというグラフィカルなセッションベースレコメンデーションを備えた大規模言語モデルを導入する。
このフレームワークは、SBRタスクのためのLLMとグラフニューラルネットワーク(GNN)を調和して統合することでギャップを埋める。
この統合は、自然言語理解におけるLLMとリレーショナルデータ処理におけるGNNの相補的な強みを活用することを目指している。
論文 参考訳(メタデータ) (2024-02-26T12:55:51Z) - Large Language Model with Graph Convolution for Recommendation [21.145230388035277]
テキスト情報は、時々品質の低いものになり、現実世界のアプリケーションにとってその効果を阻害する。
大きな言語モデルにカプセル化された知識と推論機能によって、LCMを活用することが、記述改善の有望な方法として現れます。
本稿では,ユーザ・イテムグラフの高次関係を捉えるために,LLMを抽出するグラフ対応畳み込みLLM法を提案する。
論文 参考訳(メタデータ) (2024-02-14T00:04:33Z) - Integrating Graphs with Large Language Models: Methods and Prospects [68.37584693537555]
大規模言語モデル (LLMs) が最前線として登場し、様々なアプリケーションにおいて非並列の長所を示している。
LLMとグラフ構造化データを組み合わせることは、非常に興味深いトピックです。
本稿では、そのような統合を2つの主要なカテゴリに分岐する。
論文 参考訳(メタデータ) (2023-10-09T07:59:34Z) - GUESR: A Global Unsupervised Data-Enhancement with Bucket-Cluster
Sampling for Sequential Recommendation [58.6450834556133]
本研究では,グローバルな視点から複雑な関連性を持つ項目表現を強化するために,グラフコントラスト学習を提案する。
本稿では,CapsNetモジュールを拡張したターゲットアテンション機構により,ユーザの動的嗜好を導出する。
提案したGUESRは,大幅な改善を達成できただけでなく,汎用的な拡張戦略ともみなすことができた。
論文 参考訳(メタデータ) (2023-03-01T05:46:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。