論文の概要: Beyond Graphs: Can Large Language Models Comprehend Hypergraphs?
- arxiv url: http://arxiv.org/abs/2410.10083v2
- Date: Wed, 16 Oct 2024 07:33:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-30 03:14:03.574264
- Title: Beyond Graphs: Can Large Language Models Comprehend Hypergraphs?
- Title(参考訳): グラフを超えて: 大規模言語モデルはハイパーグラフを補完できるか?
- Authors: Yifan Feng, Chengwu Yang, Xingliang Hou, Shaoyi Du, Shihui Ying, Zongze Wu, Yue Gao,
- Abstract要約: NLGraphやGraphQAといった既存のベンチマークでは、ペア関係を中心にグラフ上のLLMを評価している。
LLM4Hypergraphは、8つの低次、5つの高次、および2つの同型タスクにまたがる21,500の問題をまとめた最初の総合的なベンチマークである。
GPT-4oを含む6つの著名なLCMを評価し、モデル強度と弱点の同定におけるベンチマークの有効性を実証した。
- 参考スコア(独自算出の注目度): 26.39103710373248
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing benchmarks like NLGraph and GraphQA evaluate LLMs on graphs by focusing mainly on pairwise relationships, overlooking the high-order correlations found in real-world data. Hypergraphs, which can model complex beyond-pairwise relationships, offer a more robust framework but are still underexplored in the context of LLMs. To address this gap, we introduce LLM4Hypergraph, the first comprehensive benchmark comprising 21,500 problems across eight low-order, five high-order, and two isomorphism tasks, utilizing both synthetic and real-world hypergraphs from citation networks and protein structures. We evaluate six prominent LLMs, including GPT-4o, demonstrating our benchmark's effectiveness in identifying model strengths and weaknesses. Our specialized prompting framework incorporates seven hypergraph languages and introduces two novel techniques, Hyper-BAG and Hyper-COT, which enhance high-order reasoning and achieve an average 4% (up to 9%) performance improvement on structure classification tasks. This work establishes a foundational testbed for integrating hypergraph computational capabilities into LLMs, advancing their comprehension. The source codes are at https://github.com/iMoonLab/LLM4Hypergraph.
- Abstract(参考訳): NLGraphやGraphQAといった既存のベンチマークでは、実世界のデータに見られる高次相関を見越して、ペア関係を中心にグラフ上のLLMを評価している。
複雑な関係をモデル化できるハイパーグラフは、より堅牢なフレームワークを提供するが、まだLLMの文脈では過小評価されている。
LLM4Hypergraphは、8つの低次、5つの高次、および2つの同型タスクにまたがる21,500の問題を総合的にまとめた最初のベンチマークである。
GPT-4oを含む6つの著名なLCMを評価し、モデル強度と弱点の同定におけるベンチマークの有効性を実証した。
我々は7つのハイパーグラフ言語を導入し、高次推論を強化し、構造分類タスクにおける平均4%(最大9%)の性能改善を実現するHyper-BAGとHyper-COTという2つの新しい手法を導入している。
この研究は、ハイパーグラフ計算能力をLSMに統合するための基礎的なテストベッドを確立し、その理解を深める。
ソースコードはhttps://github.com/iMoonLab/LLM4Hypergraphにある。
関連論文リスト
- How Do Large Language Models Understand Graph Patterns? A Benchmark for Graph Pattern Comprehension [53.6373473053431]
この研究は、グラフパターンタスクにおける大規模言語モデルの能力を評価するためのベンチマークを導入する。
我々は,LLMが用語的記述と位相的記述の両方に基づいて,グラフパターンを理解できるかどうかを評価するベンチマークを開発した。
私たちのベンチマークでは、合成データセットと実際のデータセットの両方と、11のタスクと7のモデルで構成されています。
論文 参考訳(メタデータ) (2024-10-04T04:48:33Z) - Can Large Language Models Analyze Graphs like Professionals? A Benchmark, Datasets and Models [90.98855064914379]
グラフを処理するために,大規模言語モデル(LLM)のベンチマークであるProGraphを導入する。
その結果,現在のLCMの性能は不満足であり,最高のモデルでは36%の精度しか達成できないことがわかった。
本研究では,6つの広く使用されているグラフライブラリに基づいて,クローリングされたドキュメントと自動生成コードを含むLLM4Graphデータセットを提案する。
論文 参考訳(メタデータ) (2024-09-29T11:38:45Z) - Graph Chain-of-Thought: Augmenting Large Language Models by Reasoning on Graphs [60.71360240206726]
大規模言語モデル(LLM)は、特に知識集約的なタスクにおいて幻覚に悩まされる。
既存の研究は、外部知識コーパスから取得した個々のテキスト単位でLLMを拡張することを提案する。
本稿では,グラフを反復的に推論することで,LLMをグラフで拡張するためのGraph Chain-of-thinkt (Graph-CoT) というフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-10T15:41:53Z) - LLaGA: Large Language and Graph Assistant [73.71990472543027]
大規模言語とグラフアシスタント(LLaGA)は、グラフ構造化データの複雑さを扱う革新的なモデルである。
LLaGAは汎用性、一般化性、解釈性に優れており、異なるデータセットやタスク間で一貫して動作する。
実験の結果,LLaGAは4つのデータセットと3つのタスクに1つの単一モデルを用いて優れた性能を提供することがわかった。
論文 参考訳(メタデータ) (2024-02-13T02:03:26Z) - Hypergraph-MLP: Learning on Hypergraphs without Message Passing [41.43504601820411]
多くのハイパーグラフニューラルネットワークは、ハイパーグラフ構造上のメッセージパッシングを利用してノード表現学習を強化する。
我々は、ハイパーグラフ構造に関する情報を、明示的なメッセージパッシングを伴わずに、トレーニングの監督に組み込む方法を提案する。
具体的には,ハイパーグラフ構造化データのための新しい学習フレームワークであるHypergraph-MLPを紹介する。
論文 参考訳(メタデータ) (2023-12-15T13:30:04Z) - Large Language Models on Graphs: A Comprehensive Survey [77.16803297418201]
グラフ上の大規模言語モデルに関連するシナリオとテクニックを体系的にレビューする。
まず,LLMをグラフに適用する可能性シナリオを,純グラフ,テキスト分散グラフ,テキストペアグラフの3つのカテゴリにまとめる。
本稿では,そのような手法の現実的な応用について論じ,オープンソースコードとベンチマークデータセットを要約する。
論文 参考訳(メタデータ) (2023-12-05T14:14:27Z) - Self-Supervised Pretraining for Heterogeneous Hypergraph Neural Networks [9.987252149421982]
異種HyperGNNのための自己教師型事前学習フレームワークを提案する。
本手法は,データ内のエンティティ間の高次関係を,自己教師型で効果的に捉えることができる。
実験の結果,提案するフレームワークは,様々なダウンストリームタスクにおいて,最先端のベースラインを一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2023-11-19T16:34:56Z) - Integrating Graphs with Large Language Models: Methods and Prospects [68.37584693537555]
大規模言語モデル (LLMs) が最前線として登場し、様々なアプリケーションにおいて非並列の長所を示している。
LLMとグラフ構造化データを組み合わせることは、非常に興味深いトピックです。
本稿では、そのような統合を2つの主要なカテゴリに分岐する。
論文 参考訳(メタデータ) (2023-10-09T07:59:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。