論文の概要: Large Language Model with Graph Convolution for Recommendation
- arxiv url: http://arxiv.org/abs/2402.08859v1
- Date: Wed, 14 Feb 2024 00:04:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-15 17:19:56.688689
- Title: Large Language Model with Graph Convolution for Recommendation
- Title(参考訳): グラフ畳み込みを用いた大規模言語モデルの提案
- Authors: Yingpeng Du, Ziyan Wang, Zhu Sun, Haoyan Chua, Hongzhi Liu, Zhonghai
Wu, Yining Ma, Jie Zhang, Youchen Sun
- Abstract要約: テキスト情報は、時々品質の低いものになり、現実世界のアプリケーションにとってその効果を阻害する。
大きな言語モデルにカプセル化された知識と推論機能によって、LCMを活用することが、記述改善の有望な方法として現れます。
本稿では,ユーザ・イテムグラフの高次関係を捉えるために,LLMを抽出するグラフ対応畳み込みLLM法を提案する。
- 参考スコア(独自算出の注目度): 21.145230388035277
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, efforts have been made to use text information for better
user profiling and item characterization in recommendations. However, text
information can sometimes be of low quality, hindering its effectiveness for
real-world applications. With knowledge and reasoning capabilities capsuled in
Large Language Models (LLMs), utilizing LLMs emerges as a promising way for
description improvement. However, existing ways of prompting LLMs with raw
texts ignore structured knowledge of user-item interactions, which may lead to
hallucination problems like inconsistent description generation. To this end,
we propose a Graph-aware Convolutional LLM method to elicit LLMs to capture
high-order relations in the user-item graph. To adapt text-based LLMs with
structured graphs, We use the LLM as an aggregator in graph processing,
allowing it to understand graph-based information step by step. Specifically,
the LLM is required for description enhancement by exploring multi-hop
neighbors layer by layer, thereby propagating information progressively in the
graph. To enable LLMs to capture large-scale graph information, we break down
the description task into smaller parts, which drastically reduces the context
length of the token input with each step. Extensive experiments on three
real-world datasets show that our method consistently outperforms
state-of-the-art methods.
- Abstract(参考訳): 近年,ユーザのプロファイリングやレコメンデーション項目のキャラクタリゼーション向上のために,テキスト情報の利用が試みられている。
しかし、テキスト情報は品質が低く、現実世界のアプリケーションでの有効性を阻害することがある。
LLM(Large Language Models)にカプセル化された知識と推論機能によって、LCMを活用することが、記述改善の有望な方法として現れます。
しかし, LLMを生テキストで促す既存の方法は, ユーザ・イテム相互作用の構造的知識を無視するものであり, 矛盾した記述生成などの幻覚的問題を引き起こす可能性がある。
この目的のために,ユーザ・イットグラフの高次関係を捉えるために LLM を抽出するグラフ対応畳み込み LLM 法を提案する。
構造化グラフでテキストベースのLLMを適応させるために、グラフ処理における集約子としてLLMを使用し、グラフベースの情報を段階的に理解できるようにする。
具体的には,マルチホップ隣層を層ごとに探索することで記述の強化が求められ,グラフ内の情報を段階的に伝播させる。
LLMが大規模グラフ情報をキャプチャするために、記述タスクを小さな部分に分割し、各ステップで入力されるトークンのコンテキスト長を大幅に削減する。
3つの実世界のデータセットに対する大規模な実験は、我々の手法が常に最先端の手法より優れていることを示している。
関連論文リスト
- Enhance Graph Alignment for Large Language Models [33.96082485852042]
グラフへのアプローチは、大規模言語モデルがグラフ情報を処理できることで人気がある。
既存の手法は、自己監督タスクと下流タスクの間に不一致がある。
協調タスクテンプレートの恩恵を受けるために,グラフアライメント大言語モデル(GALLM)を提案する。
論文 参考訳(メタデータ) (2024-10-15T07:50:34Z) - All Against Some: Efficient Integration of Large Language Models for Message Passing in Graph Neural Networks [51.19110891434727]
事前訓練された知識と強力なセマンティック理解能力を持つ大規模言語モデル(LLM)は、最近、視覚とテキストデータを使用してアプリケーションに恩恵をもたらす顕著な能力を示している。
E-LLaGNNは、グラフから限られたノード数を増やして、グラフ学習のメッセージパッシング手順を強化するオンデマンドLLMサービスを備えたフレームワークである。
論文 参考訳(メタデータ) (2024-07-20T22:09:42Z) - Parameter-Efficient Tuning Large Language Models for Graph Representation Learning [62.26278815157628]
Graph-awareを導入します。
GPEFT - グラフ表現学習のための新しい手法。
グラフニューラルネットワーク(GNN)を用いて、隣接するノードからグラフプロンプトに構造情報をエンコードする。
我々は8つの異なるテキストリッチグラフで実施した総合的な実験を通じて,リンク予測評価において hit@1 と Mean Reciprocal Rank (MRR) の平均 2% の改善を観察し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2024-04-28T18:36:59Z) - Large Language Models on Graphs: A Comprehensive Survey [77.16803297418201]
グラフ上の大規模言語モデルに関連するシナリオとテクニックを体系的にレビューする。
まず,LLMをグラフに適用する可能性シナリオを,純グラフ,テキスト分散グラフ,テキストペアグラフの3つのカテゴリにまとめる。
本稿では,そのような手法の現実的な応用について論じ,オープンソースコードとベンチマークデータセットを要約する。
論文 参考訳(メタデータ) (2023-12-05T14:14:27Z) - Large Language Models as Topological Structure Enhancers for Text-Attributed Graphs [4.487720716313697]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野に革命をもたらした。
本研究では,LLMの情報検索とテキスト生成機能を活用して,ノード分類設定の下でのテキスト分散グラフ(TAG)のトポロジ構造を洗練・強化する方法について検討する。
論文 参考訳(メタデータ) (2023-11-24T07:53:48Z) - Integrating Graphs with Large Language Models: Methods and Prospects [68.37584693537555]
大規模言語モデル (LLMs) が最前線として登場し、様々なアプリケーションにおいて非並列の長所を示している。
LLMとグラフ構造化データを組み合わせることは、非常に興味深いトピックです。
本稿では、そのような統合を2つの主要なカテゴリに分岐する。
論文 参考訳(メタデータ) (2023-10-09T07:59:34Z) - Exploring the Potential of Large Language Models (LLMs) in Learning on
Graphs [59.74814230246034]
大規模言語モデル(LLM)は、広範な共通知識と強力な意味理解能力を持つことが証明されている。
LLMs-as-EnhancersとLLMs-as-Predictorsの2つのパイプラインについて検討する。
論文 参考訳(メタデータ) (2023-07-07T05:31:31Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。