論文の概要: DynLLM: When Large Language Models Meet Dynamic Graph Recommendation
- arxiv url: http://arxiv.org/abs/2405.07580v1
- Date: Mon, 13 May 2024 09:36:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-14 14:24:56.615543
- Title: DynLLM: When Large Language Models Meet Dynamic Graph Recommendation
- Title(参考訳): DynLLM: 大規模言語モデルが動的グラフレコメンデーションに直面するとき
- Authors: Ziwei Zhao, Fake Lin, Xi Zhu, Zhi Zheng, Tong Xu, Shitian Shen, Xueying Li, Zikai Yin, Enhong Chen,
- Abstract要約: 我々はDynLLMと呼ばれる新しいフレームワークを提案し、大規模言語モデルを用いた動的グラフ推薦タスクに対処する。
特に、DynLLMはLLMの力を利用して、履歴購入記録の豊富なテキストの特徴に基づいて、多面的なユーザプロファイルを生成する。
2つの実電子商取引データセットの実験は、幅広い最先端のベースライン手法よりも優れたDynLLMの改善を実証した。
- 参考スコア(独自算出の注目度): 43.05028974086236
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Last year has witnessed the considerable interest of Large Language Models (LLMs) for their potential applications in recommender systems, which may mitigate the persistent issue of data sparsity. Though large efforts have been made for user-item graph augmentation with better graph-based recommendation performance, they may fail to deal with the dynamic graph recommendation task, which involves both structural and temporal graph dynamics with inherent complexity in processing time-evolving data. To bridge this gap, in this paper, we propose a novel framework, called DynLLM, to deal with the dynamic graph recommendation task with LLMs. Specifically, DynLLM harnesses the power of LLMs to generate multi-faceted user profiles based on the rich textual features of historical purchase records, including crowd segments, personal interests, preferred categories, and favored brands, which in turn supplement and enrich the underlying relationships between users and items. Along this line, to fuse the multi-faceted profiles with temporal graph embedding, we engage LLMs to derive corresponding profile embeddings, and further employ a distilled attention mechanism to refine the LLM-generated profile embeddings for alleviating noisy signals, while also assessing and adjusting the relevance of each distilled facet embedding for seamless integration with temporal graph embedding from continuous time dynamic graphs (CTDGs). Extensive experiments on two real e-commerce datasets have validated the superior improvements of DynLLM over a wide range of state-of-the-art baseline methods.
- Abstract(参考訳): 昨年、リコメンデータシステムにおける潜在的なアプリケーションに対するLarge Language Models (LLMs) のかなりの関心を目の当たりにした。
より優れたグラフベースのレコメンデーションパフォーマンスを備えたユーザイットグラフ強化のための大きな取り組みが実施されているが、時間進化データ処理において本質的に複雑となる構造グラフと時間グラフのダイナミクスの両方を含む、動的グラフレコメンデーションタスクに対処できない可能性がある。
本稿では,このギャップを埋めるために,LLMを用いた動的グラフレコメンデーションタスクを扱う新しいフレームワークDynLLMを提案する。
特に、DynLLMはLLMの力を利用して、群衆セグメント、個人的関心事、好まれるカテゴリー、好まれるブランドなど、歴史的購入記録の豊富なテキスト的特徴に基づく多面的ユーザプロファイルを生成し、ユーザとアイテム間の基礎的関係を補完し、強化する。
この線に沿って、多面体プロファイルを時間グラフ埋め込みで融合させるため、LLMを係合させて対応するプロファイル埋め込みを導出し、さらに、連続時間動的グラフ(CTDGs)からの時間グラフ埋め込みとのシームレスな統合のために、各蒸留面体埋め込みの関連性を評価し調整しながら、LLM生成プロファイル埋め込みを改良する蒸留アテンション機構を用いる。
2つの実際のeコマースデータセットに対する大規模な実験は、幅広い最先端のベースライン手法よりも優れたDynLLMの改善を実証した。
関連論文リスト
- DyG-Mamba: Continuous State Space Modeling on Dynamic Graphs [59.434893231950205]
動的グラフ学習は、現実世界のシステムにおける進化の法則を明らかにすることを目的としている。
動的グラフ学習のための新しい連続状態空間モデルDyG-Mambaを提案する。
我々はDyG-Mambaがほとんどのデータセットで最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-08-13T15:21:46Z) - Fine-grainedly Synthesize Streaming Data Based On Large Language Models
With Graph Structure Understanding For Data Sparsity [24.995442293434643]
ユーザデータの膨大さのため、Eコマースプラットフォームにおけるユーザレビューに対する感情分析は、しばしばパフォーマンスの低下に悩まされる。
スパースユーザを3つのカテゴリ(Mid-tail, Long-tail, Extreme)に分類する,詳細なストリーミングデータ合成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-10T08:59:04Z) - MuseGraph: Graph-oriented Instruction Tuning of Large Language Models
for Generic Graph Mining [41.19687587548107]
グラフニューラルネットワーク(GNN)は、異なるグラフタスクやデータセットに適用されるたびに、再トレーニングされる必要がある。
GNNとLarge Language Models(LLM)の強みをシームレスに統合する新しいフレームワークMusteGraphを提案する。
実験結果から,異なるグラフタスクの大幅な改善が示された。
論文 参考訳(メタデータ) (2024-03-02T09:27:32Z) - Large Language Model with Graph Convolution for Recommendation [21.145230388035277]
テキスト情報は、時々品質の低いものになり、現実世界のアプリケーションにとってその効果を阻害する。
大きな言語モデルにカプセル化された知識と推論機能によって、LCMを活用することが、記述改善の有望な方法として現れます。
本稿では,ユーザ・イテムグラフの高次関係を捉えるために,LLMを抽出するグラフ対応畳み込みLLM法を提案する。
論文 参考訳(メタデータ) (2024-02-14T00:04:33Z) - TimeGraphs: Graph-based Temporal Reasoning [64.18083371645956]
TimeGraphsは階層的時間グラフとして動的相互作用を特徴付ける新しいアプローチである。
提案手法は,コンパクトなグラフベース表現を用いて相互作用をモデル化し,多種多様な時間スケールでの適応推論を可能にする。
我々は,サッカーシミュレータ,抵抗ゲーム,MOMA人間活動データセットなど,複雑でダイナミックなエージェントインタラクションを持つ複数のデータセット上でTimeGraphsを評価する。
論文 参考訳(メタデータ) (2024-01-06T06:26:49Z) - LLM4DyG: Can Large Language Models Solve Spatial-Temporal Problems on Dynamic Graphs? [56.85995048874959]
本稿では,大規模言語モデルの動的グラフ上での時空間理解能力を評価することを提案する。
我々は、異なるデータ生成装置、データ統計、プロンプト技術、LLMがモデル性能に与える影響を分析する実験を行う。
最後に, LLM の時空間理解能力を高めるために, 動的グラフ上の LLM に対する Disentangled Spatial-Temporal Thoughts (DST2) を提案する。
論文 参考訳(メタデータ) (2023-10-26T02:37:43Z) - Integrating Graphs with Large Language Models: Methods and Prospects [68.37584693537555]
大規模言語モデル (LLMs) が最前線として登場し、様々なアプリケーションにおいて非並列の長所を示している。
LLMとグラフ構造化データを組み合わせることは、非常に興味深いトピックです。
本稿では、そのような統合を2つの主要なカテゴリに分岐する。
論文 参考訳(メタデータ) (2023-10-09T07:59:34Z) - Dynamic Graph Learning-Neural Network for Multivariate Time Series
Modeling [2.3022070933226217]
静的および動的グラフ学習ニューラルネットワーク(GL)という新しいフレームワークを提案する。
モデルはそれぞれ、データから静的グラフ行列と動的グラフ行列を取得し、長期パターンと短期パターンをモデル化する。
ほぼすべてのデータセットで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-12-06T08:19:15Z) - Graph Contrastive Learning Automated [94.41860307845812]
グラフコントラスト学習(GraphCL)は、有望な表現学習性能とともに登場した。
GraphCLのヒンジがアドホックなデータ拡張に与える影響は、データセット毎に手動で選択する必要がある。
本稿では,グラフデータ上でGraphCLを実行する際に,データ拡張を自動的に,適応的に動的に選択する統合バイレベル最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-10T16:35:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。