論文の概要: Advancing Graph Representation Learning with Large Language Models: A
Comprehensive Survey of Techniques
- arxiv url: http://arxiv.org/abs/2402.05952v1
- Date: Sun, 4 Feb 2024 05:51:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-18 14:36:48.285311
- Title: Advancing Graph Representation Learning with Large Language Models: A
Comprehensive Survey of Techniques
- Title(参考訳): 大規模言語モデルによるグラフ表現学習の促進: 総合的な技術調査
- Authors: Qiheng Mao, Zemin Liu, Chenghao Liu, Zhuo Li, Jianling Sun
- Abstract要約: グラフ表現学習(GRL)とLLM(Large Language Models)の統合は、複雑なデータ構造を分析する上で重要な進化である。
このコラボレーションは、LLMの洗練された言語機能を活用して、グラフモデルの文脈的理解と適応性を改善する。
LLMをグラフ領域に統合する研究団体が増えているにもかかわらず、コアコンポーネントとオペレーションを深く分析する包括的なレビューは特に欠落している。
- 参考スコア(独自算出の注目度): 37.60727548905253
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The integration of Large Language Models (LLMs) with Graph Representation
Learning (GRL) marks a significant evolution in analyzing complex data
structures. This collaboration harnesses the sophisticated linguistic
capabilities of LLMs to improve the contextual understanding and adaptability
of graph models, thereby broadening the scope and potential of GRL. Despite a
growing body of research dedicated to integrating LLMs into the graph domain, a
comprehensive review that deeply analyzes the core components and operations
within these models is notably lacking. Our survey fills this gap by proposing
a novel taxonomy that breaks down these models into primary components and
operation techniques from a novel technical perspective. We further dissect
recent literature into two primary components including knowledge extractors
and organizers, and two operation techniques including integration and training
stratigies, shedding light on effective model design and training strategies.
Additionally, we identify and explore potential future research avenues in this
nascent yet underexplored field, proposing paths for continued progress.
- Abstract(参考訳): グラフ表現学習(GRL)とLLM(Large Language Models)の統合は、複雑なデータ構造を分析する上で重要な進化である。
このコラボレーションは、llmの洗練された言語能力を活用して、グラフモデルの文脈理解と適応性を改善し、grlのスコープと可能性を広げる。
LLMをグラフ領域に統合する研究団体が増えているにもかかわらず、これらのモデルの中核となるコンポーネントや操作を深く分析する包括的なレビューは特に欠落している。
今回の調査は,これらのモデルを新たな技術的観点から主要な構成要素と運用手法に分解する,新たな分類法を提案することで,このギャップを埋めている。
さらに,最近の文献を,知識抽出器とオーガナイザを含む2つの主要な構成要素と,統合と訓練戦略を含む2つの操作手法に分類し,効果的なモデル設計とトレーニング戦略に光を当てる。
さらに、この未発見の分野における将来的な研究の道の特定と探索を行い、継続的な進展の道筋を提案する。
関連論文リスト
- Fusing Domain-Specific Content from Large Language Models into Knowledge Graphs for Enhanced Zero Shot Object State Classification [0.8232137862012223]
本研究では,Large Language Models (LLMs) のドメイン固有情報の生成と提供における可能性について検討する。
これを実現するために、LLMは知識グラフと事前訓練されたセマンティックベクターを利用するパイプラインに統合される。
その結果,LLMをベースとした組込みと汎用的な事前学習型組込みを組み合わせることで,大幅な性能向上が期待できることがわかった。
論文 参考訳(メタデータ) (2024-03-18T18:08:44Z) - The (R)Evolution of Multimodal Large Language Models: A Survey [48.61135328255951]
MLLM(Multimodal Large Language Models)は、視覚とテキストのモダリティを、入力と出力の両方としてシームレスに統合することができる。
本稿では,近年の視覚的MLLMのレビュー,アーキテクチャ選択,マルチモーダルアライメント戦略,トレーニング手法について述べる。
論文 参考訳(メタデータ) (2024-02-19T19:01:01Z) - Bridging Causal Discovery and Large Language Models: A Comprehensive
Survey of Integrative Approaches and Future Directions [10.226735765284852]
因果発見(CD)とLarge Language Models(LLM)は、人工知能に重要な意味を持つ2つの新しい研究分野を表す。
本稿では,CDタスクへのLPM(GPT4など)の統合に関する総合的な調査を行う。
論文 参考訳(メタデータ) (2024-02-16T20:48:53Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - Mathematical Language Models: A Survey [30.295544831040754]
本稿では,数学的言語モデル(LM)の包括的調査を行う。
この調査は、重要な研究成果を2つの異なる視点(タスクと方法論)から体系的に分類した。
この調査では、トレーニングデータセット、ベンチマークデータセット、拡張データセットなど、60以上の数学的データセットのコンパイルがカバーされている。
論文 参考訳(メタデータ) (2023-12-12T01:39:16Z) - Disentangled Representation Learning with Large Language Models for
Text-Attributed Graphs [57.052160123387104]
本稿では,TAGに対するLLMの推論と予測能力を向上させることができるDGTLモデルを提案する。
提案するDGTLモデルでは, グラフ構造情報をGNN層に組み込む。
実験により,提案したDGTLモデルにより,最先端のベースラインよりも優れた性能,あるいは同等の性能が得られることを示した。
論文 参考訳(メタデータ) (2023-10-27T14:00:04Z) - Towards Graph Foundation Models: A Survey and Beyond [68.35562541338865]
ファンデーションモデルは、さまざまな人工知能アプリケーションにおいて重要なコンポーネントとして現れてきた。
基礎モデルがグラフ機械学習研究者を一般化し、適応させる能力は、新しいグラフ学習パラダイムを開発する可能性について議論する。
本稿では,グラフ基礎モデル(GFM)の概念を紹介し,その重要な特徴と基礎技術について概説する。
論文 参考訳(メタデータ) (2023-10-18T09:31:21Z) - Iterative Zero-Shot LLM Prompting for Knowledge Graph Construction [104.29108668347727]
本稿では,最新の生成型大規模言語モデルの可能性を活用する,革新的な知識グラフ生成手法を提案する。
このアプローチは、新しい反復的なゼロショットと外部知識に依存しない戦略を含むパイプラインで伝達される。
我々は、我々の提案がスケーラブルで多目的な知識グラフ構築に適したソリューションであり、異なる新しい文脈に適用できると主張している。
論文 参考訳(メタデータ) (2023-07-03T16:01:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。