論文の概要: Towards Versatile Graph Learning Approach: from the Perspective of Large
Language Models
- arxiv url: http://arxiv.org/abs/2402.11641v2
- Date: Fri, 23 Feb 2024 09:18:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 17:08:59.210520
- Title: Towards Versatile Graph Learning Approach: from the Perspective of Large
Language Models
- Title(参考訳): 汎用グラフ学習へのアプローチ : 大規模言語モデルの観点から
- Authors: Lanning Wei, Jun Gao, Huan Zhao, Quanming Yao
- Abstract要約: 大きな言語モデル(LLM)は、豊富な知識と人間のような知性のために潜在的な解決策を提供する。
本稿では LLM を用いた多目的グラフ学習手法の設計のための新しい概念的プロトタイプを提案する。
- 参考スコア(独自算出の注目度): 40.58843080489752
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph-structured data are the commonly used and have wide application
scenarios in the real world. For these diverse applications, the vast variety
of learning tasks, graph domains, and complex graph learning procedures present
challenges for human experts when designing versatile graph learning
approaches. Facing these challenges, large language models (LLMs) offer a
potential solution due to the extensive knowledge and the human-like
intelligence. This paper proposes a novel conceptual prototype for designing
versatile graph learning methods with LLMs, with a particular focus on the
"where" and "how" perspectives. From the "where" perspective, we summarize four
key graph learning procedures, including task definition, graph data feature
engineering, model selection and optimization, deployment and serving. We then
explore the application scenarios of LLMs in these procedures across a wider
spectrum. In the "how" perspective, we align the abilities of LLMs with the
requirements of each procedure. Finally, we point out the promising directions
that could better leverage the strength of LLMs towards versatile graph
learning methods.
- Abstract(参考訳): グラフ構造化データは一般的に使われ、現実世界で幅広いアプリケーションシナリオを持つ。
これらの多様なアプリケーションに対して、多種多様な学習タスク、グラフドメイン、複雑なグラフ学習手順は、汎用的なグラフ学習アプローチを設計する際に、人間の専門家に挑戦を与える。
これらの課題に直面した大規模言語モデル(llm)は、広範な知識と人間のような知性のために潜在的な解決策を提供する。
本稿では, LLMを用いた多目的グラフ学習手法を設計するための新しい概念的プロトタイプを提案する。
ここでは,タスク定義,グラフデータの特徴的エンジニアリング,モデル選択と最適化,デプロイメント,サービスなど,4つの重要なグラフ学習手順を要約する。
次に、これらの手順におけるLLMの応用シナリオを幅広いスペクトルにわたって検討する。
ハウ」の観点からは、LLMの能力と各手順の要件を一致させる。
最後に,LLMの強みを多目的グラフ学習法に活用する上で有望な方向性を指摘する。
関連論文リスト
- Can we soft prompt LLMs for graph learning tasks? [24.346061281595663]
GraphPrompterは、グラフ情報とLLM(Large Language Models)をソフトプロンプトで整合させるように設計されたフレームワークである。
このフレームワークは、グラフ関連タスクの予測子としてLLMの実質的な機能を明らかにしている。
論文 参考訳(メタデータ) (2024-02-15T23:09:42Z) - Efficient Large Language Models Fine-Tuning On Graphs [23.19795835873144]
Text-Attributed Graphs (TAGs) からの学習は、その幅広い現実世界のアプリケーションのために大きな注目を集めている。
本稿では,TAG上でのLarge Language Models (LLMs) のエンドツーエンド微調整のための新しい,効率的なアプローチについて紹介する。
論文 参考訳(メタデータ) (2023-12-07T22:35:16Z) - Large Language Models on Graphs: A Comprehensive Survey [81.7684686396014]
グラフ上の大規模言語モデルに関連するシナリオとテクニックを体系的にレビューする。
まず,LLMをグラフに適用する可能性シナリオを,純グラフ,テキスト分散グラフ,テキストペアグラフの3つのカテゴリにまとめる。
本稿では,そのような手法の現実的な応用について論じ,オープンソースコードとベンチマークデータセットを要約する。
論文 参考訳(メタデータ) (2023-12-05T14:14:27Z) - Integrating Graphs with Large Language Models: Methods and Prospects [68.37584693537555]
大規模言語モデル (LLMs) が最前線として登場し、様々なアプリケーションにおいて非並列の長所を示している。
LLMとグラフ構造化データを組み合わせることは、非常に興味深いトピックです。
本稿では、そのような統合を2つの主要なカテゴリに分岐する。
論文 参考訳(メタデータ) (2023-10-09T07:59:34Z) - Beyond Text: A Deep Dive into Large Language Models' Ability on
Understanding Graph Data [13.524529952170672]
大規模言語モデル(LLM)は多くの自然言語処理タスクにおいて顕著な性能を達成している。
LLMがグラフデータを効果的に処理し、トポロジ構造を利用して性能を向上させることができるかどうかを評価することを目的とする。
LLMの性能を特殊グラフモデルと比較することにより、グラフ解析にLLMを使用する際の長所と短所について考察する。
論文 参考訳(メタデータ) (2023-10-07T23:25:22Z) - MinT: Boosting Generalization in Mathematical Reasoning via Multi-View
Fine-Tuning [53.90744622542961]
数学領域における推論は、小言語モデル(LM)にとって重要な課題である。
多様なアノテーションスタイルで既存の数学的問題データセットを利用する新しい手法を提案する。
実験結果から,LLaMA-7Bモデルが先行手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-16T05:41:53Z) - Exploring Large Language Model for Graph Data Understanding in Online
Job Recommendations [63.19448893196642]
本稿では,大規模言語モデルが提供するリッチな文脈情報と意味表現を利用して行動グラフを解析する新しいフレームワークを提案する。
この機能を利用することで、個々のユーザに対してパーソナライズされた、正確なジョブレコメンデーションが可能になる。
論文 参考訳(メタデータ) (2023-07-10T11:29:41Z) - Exploring the Potential of Large Language Models (LLMs) in Learning on
Graphs [59.74814230246034]
大規模言語モデル(LLM)は、広範な共通知識と強力な意味理解能力を持つことが証明されている。
LLMs-as-EnhancersとLLMs-as-Predictorsの2つのパイプラインについて検討する。
論文 参考訳(メタデータ) (2023-07-07T05:31:31Z) - Graph-ToolFormer: To Empower LLMs with Graph Reasoning Ability via
Prompt Augmented by ChatGPT [10.879701971582502]
我々は,複雑なグラフデータに対する推論能力を備えた大規模言語モデル(LLM)の開発を目指している。
最新のChatGPTおよびToolformerモデルに触発された我々は、外部グラフ推論APIツールを使用するために、ChatGPTによって強化されたプロンプトでLLM自体を教えるためのGraph-ToolFormerフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-10T05:25:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。