論文の概要: LangGFM: A Large Language Model Alone Can be a Powerful Graph Foundation Model
- arxiv url: http://arxiv.org/abs/2410.14961v1
- Date: Sat, 19 Oct 2024 03:27:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:19:31.116605
- Title: LangGFM: A Large Language Model Alone Can be a Powerful Graph Foundation Model
- Title(参考訳): LangGFM: 大規模言語モデル 単独で強力なグラフ基盤モデルになる
- Authors: Tianqianjin Lin, Pengwei Yan, Kaisong Song, Zhuoren Jiang, Yangyang Kang, Jun Lin, Weikang Yuan, Junjie Cao, Changlong Sun, Xiaozhong Liu,
- Abstract要約: グラフ基礎モデル(GFM)が最近注目を集めている。
現在の研究は、グラフ学習タスクの特定のサブセットに焦点を当てる傾向がある。
GFMBenchは26のデータセットからなる体系的で包括的なベンチマークである。
また,大規模言語モデルに完全に依存する新しいGFMであるLangGFMを紹介する。
- 参考スコア(独自算出の注目度): 27.047809869136458
- License:
- Abstract: Graph foundation models (GFMs) have recently gained significant attention. However, the unique data processing and evaluation setups employed by different studies hinder a deeper understanding of their progress. Additionally, current research tends to focus on specific subsets of graph learning tasks, such as structural tasks, node-level tasks, or classification tasks. As a result, they often incorporate specialized modules tailored to particular task types, losing their applicability to other graph learning tasks and contradicting the original intent of foundation models to be universal. Therefore, to enhance consistency, coverage, and diversity across domains, tasks, and research interests within the graph learning community in the evaluation of GFMs, we propose GFMBench-a systematic and comprehensive benchmark comprising 26 datasets. Moreover, we introduce LangGFM, a novel GFM that relies entirely on large language models. By revisiting and exploring the effective graph textualization principles, as well as repurposing successful techniques from graph augmentation and graph self-supervised learning within the language space, LangGFM achieves performance on par with or exceeding the state of the art across GFMBench, which can offer us new perspectives, experiences, and baselines to drive forward the evolution of GFMs.
- Abstract(参考訳): グラフ基礎モデル(GFM)が最近注目を集めている。
しかし、異なる研究で使われているユニークなデータ処理と評価のセットアップは、それらの進歩をより深く理解するのを妨げる。
さらに、現在の研究は、構造的タスク、ノードレベルのタスク、分類タスクなど、グラフ学習タスクの特定のサブセットに焦点を当てる傾向にある。
結果として、特定のタスクタイプに適した特殊なモジュールが組み込まれ、他のグラフ学習タスクへの適用性を失い、基礎モデルの本来の意図が普遍的であることに矛盾することが多い。
そこで, GFMの評価において, 領域, タスク, 研究分野間の一貫性, 包括性, 多様性を高めるため, 26データセットからなる総合的かつ総合的なベンチマークである GFMBench を提案する。
さらに,大規模言語モデルに完全に依存する新しいGFMであるLangGFMを紹介する。
効果的なグラフテクスチャライゼーションの原則を再考し、言語空間におけるグラフ強化とグラフ自己教師型学習から成功したテクニックを再調達することで、LangGFMは、GFMBench全体の最先端と同等以上のパフォーマンスを実現し、GFMの進化を促進するための新たな視点、経験、ベースラインを提供することができる。
関連論文リスト
- Graph Foundation Models for Recommendation: A Comprehensive Survey [55.70529188101446]
大規模言語モデル(LLM)は自然言語を処理し、理解するために設計されており、どちらも非常に効果的で広く採用されている。
最近の研究はグラフ基礎モデル(GFM)に焦点を当てている。
GFM は GNN と LLM の強みを統合し,複雑な RS 問題をより効率的にモデル化する。
論文 参考訳(メタデータ) (2025-02-12T12:13:51Z) - GFM-RAG: Graph Foundation Model for Retrieval Augmented Generation [84.41557981816077]
本稿では,新しいグラフ基盤モデル (GFM) である GFM-RAG について紹介する。
GFM-RAGは、複雑なクエリ-知識関係をキャプチャするグラフ構造を理由とする、革新的なグラフニューラルネットワークによって実現されている。
効率とニューラルスケーリング法則との整合性を維持しつつ、最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-02-03T07:04:29Z) - Towards Graph Foundation Models: Learning Generalities Across Graphs via Task-Trees [50.78679002846741]
グラフにおけるクロスタスクの一般性を学習するための新しいアプローチを提案する。
グラフ上のタスク空間を整列させるための基本的な学習インスタンスとしてタスクツリーを提案する。
その結果,グラフニューラルネットワークが多種多様なタスクツリーで事前訓練された場合,伝達可能な知識を取得することが示唆された。
論文 参考訳(メタデータ) (2024-12-21T02:07:43Z) - Towards Graph Foundation Models: The Perspective of Zero-shot Reasoning on Knowledge Graphs [14.392577069212292]
我々は、ゼロショット学習を用いて、多様なグラフタスクを効果的に一般化する統合グラフ推論フレームワークSCOREを紹介する。
SCOREを38種類のグラフデータセットを用いて評価し、ノードレベル、リンクレベル、グラフレベルのタスクを複数のドメインでカバーする。
論文 参考訳(メタデータ) (2024-10-16T14:26:08Z) - Towards Vision-Language Geo-Foundation Model: A Survey [65.70547895998541]
Vision-Language Foundation Models (VLFMs) は、様々なマルチモーダルタスクにおいて顕著な進歩を遂げている。
本稿では, VLGFMを網羅的にレビューし, この分野の最近の展開を要約し, 分析する。
論文 参考訳(メタデータ) (2024-06-13T17:57:30Z) - A Survey on Self-Supervised Graph Foundation Models: Knowledge-Based Perspective [14.403179370556332]
グラフ自己教師型学習(SSL)は、グラフ基礎モデル(GFM)を事前学習するためのゴートメソッドとなった
本稿では,自己教師付きグラフモデルを用いた知識に基づく分類法を提案する。
論文 参考訳(メタデータ) (2024-03-24T13:10:09Z) - Position: Graph Foundation Models are Already Here [53.737868336014735]
グラフ基礎モデル(GFM)は、グラフ領域において重要な研究トピックとして浮上している。
グラフ語彙の提唱によるGFM開発のための新しい視点」を提案する。
この観点は、将来のGFM設計を、ニューラルネットワークのスケーリング法則に従って前進させる可能性がある。
論文 参考訳(メタデータ) (2024-02-03T17:24:36Z) - Towards Graph Foundation Models: A Survey and Beyond [66.37994863159861]
ファンデーションモデルは、さまざまな人工知能アプリケーションにおいて重要なコンポーネントとして現れてきた。
基礎モデルがグラフ機械学習研究者を一般化し、適応させる能力は、新しいグラフ学習パラダイムを開発する可能性について議論する。
本稿では,グラフ基礎モデル(GFM)の概念を紹介し,その重要な特徴と基礎技術について概説する。
論文 参考訳(メタデータ) (2023-10-18T09:31:21Z) - GPT4Graph: Can Large Language Models Understand Graph Structured Data ?
An Empirical Evaluation and Benchmarking [17.7473474499538]
ChatGPTのような大規模言語モデルは、人工知能にとって欠かせないものとなっている。
本研究では,グラフデータの解釈において,LLMの精度を評価するための調査を行う。
この知見は,言語モデルとグラフ理解のギャップを埋めるための貴重な洞察に寄与する。
論文 参考訳(メタデータ) (2023-05-24T11:53:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。