論文の概要: A Survey of Quantized Graph Representation Learning: Connecting Graph Structures with Large Language Models
- arxiv url: http://arxiv.org/abs/2502.00681v1
- Date: Sun, 02 Feb 2025 05:57:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 15:05:53.703660
- Title: A Survey of Quantized Graph Representation Learning: Connecting Graph Structures with Large Language Models
- Title(参考訳): グラフ表現学習の量子化に関する調査--グラフ構造と大規模言語モデルとの結合
- Authors: Qika Lin, Zhen Peng, Kaize Shi, Kai He, Yiming Xu, Erik Cambria, Mengling Feng,
- Abstract要約: 量子グラフ表現(Quantized Graph Representation, QGR)の学習は、最近関心が高まっている。
自然言語に類似した表現形式を与えられたQGRは、グラフ構造を大きな言語モデル(LLM)とシームレスに統合する能力も持っている。
- 参考スコア(独自算出の注目度): 35.05065773601282
- License:
- Abstract: Recent years have witnessed rapid advances in graph representation learning, with the continuous embedding approach emerging as the dominant paradigm. However, such methods encounter issues regarding parameter efficiency, interpretability, and robustness. Thus, Quantized Graph Representation (QGR) learning has recently gained increasing interest, which represents the graph structure with discrete codes instead of conventional continuous embeddings. Given its analogous representation form to natural language, QGR also possesses the capability to seamlessly integrate graph structures with large language models (LLMs). As this emerging paradigm is still in its infancy yet holds significant promise, we undertake this thorough survey to promote its rapid future prosperity. We first present the background of the general quantization methods and their merits. Moreover, we provide an in-depth demonstration of current QGR studies from the perspectives of quantized strategies, training objectives, distinctive designs, knowledge graph quantization, and applications. We further explore the strategies for code dependence learning and integration with LLMs. At last, we give discussions and conclude future directions, aiming to provide a comprehensive picture of QGR and inspire future research.
- Abstract(参考訳): 近年、グラフ表現学習の急速な進歩が見られ、連続的な埋め込みアプローチが主流のパラダイムとして浮上している。
しかし、パラメータ効率、解釈可能性、堅牢性に関する問題が発生する。
このように、量子グラフ表現(QGR)学習は、従来の連続的な埋め込みではなく、離散的なコードでグラフ構造を表現することに関心を寄せている。
自然言語に類似した表現形式を与えられたQGRは、グラフ構造を大きな言語モデル(LLM)とシームレスに統合する能力も持っている。
この新興パラダイムは、まだ初期段階にあるが、大きな約束があるので、私たちは、この徹底的な調査を実施して、その急速な将来的な繁栄を促進します。
まず、一般化量子化法とそのメリットの背景を示す。
さらに、定量化戦略、訓練目標、独特なデザイン、知識グラフの量子化、応用の観点から、現在のQGR研究の詳細な実演を行う。
コード依存学習とLLMとの統合戦略をさらに検討する。
最後に、QGRの全体像を提供し、今後の研究を刺激することを目的として、議論を行い、今後の方向性を結論付ける。
関連論文リスト
- Towards Graph Foundation Models: The Perspective of Zero-shot Reasoning on Knowledge Graphs [14.392577069212292]
我々は、ゼロショット学習を用いて、多様なグラフタスクを効果的に一般化する統合グラフ推論フレームワークSCOREを紹介する。
SCOREを38種類のグラフデータセットを用いて評価し、ノードレベル、リンクレベル、グラフレベルのタスクを複数のドメインでカバーする。
論文 参考訳(メタデータ) (2024-10-16T14:26:08Z) - Disentangled Generative Graph Representation Learning [51.59824683232925]
本稿では,自己教師型学習フレームワークであるDiGGR(Disentangled Generative Graph Representation Learning)を紹介する。
潜伏要因を学習し、それをグラフマスクモデリングのガイドとして活用することを目的としている。
2つの異なるグラフ学習タスクのための11の公開データセットの実験は、DiGGRが従来よりも一貫して多くの自己教師付きメソッドを上回っていることを示している。
論文 参考訳(メタデータ) (2024-08-24T05:13:02Z) - A Survey of Large Language Models for Graphs [21.54279919476072]
我々は、グラフ学習に適用された最新の最先端の大規模言語モデルについて、詳細なレビューを行う。
フレームワーク設計に基づいて既存の手法を分類する新しい分類法を提案する。
各フレームワークの長所と短所について検討し,今後の研究への可能性を強調する。
論文 参考訳(メタデータ) (2024-05-10T18:05:37Z) - Towards Graph Foundation Models: A Survey and Beyond [66.37994863159861]
ファンデーションモデルは、さまざまな人工知能アプリケーションにおいて重要なコンポーネントとして現れてきた。
基礎モデルがグラフ機械学習研究者を一般化し、適応させる能力は、新しいグラフ学習パラダイムを開発する可能性について議論する。
本稿では,グラフ基礎モデル(GFM)の概念を紹介し,その重要な特徴と基礎技術について概説する。
論文 参考訳(メタデータ) (2023-10-18T09:31:21Z) - A Comprehensive Survey on Deep Graph Representation Learning [26.24869157855632]
グラフ表現学習は、高次元スパースグラフ構造化データを低次元密度ベクトルに符号化することを目的としている。
従来の手法ではモデル能力に制限があり、学習性能に制限がある。
深層グラフ表現学習は、浅い(伝統的な)方法よりも大きな可能性と利点を示している。
論文 参考訳(メタデータ) (2023-04-11T08:23:52Z) - State of the Art and Potentialities of Graph-level Learning [54.68482109186052]
グラフレベルの学習は、比較、回帰、分類など、多くのタスクに適用されている。
グラフの集合を学習する伝統的なアプローチは、サブストラクチャのような手作りの特徴に依存している。
ディープラーニングは、機能を自動的に抽出し、グラフを低次元表現に符号化することで、グラフレベルの学習をグラフの規模に適応させるのに役立っている。
論文 参考訳(メタデータ) (2023-01-14T09:15:49Z) - GraphMAE: Self-Supervised Masked Graph Autoencoders [52.06140191214428]
本稿では,自己教師付きグラフ学習における課題を軽減するマスク付きグラフオートエンコーダGraphMAEを提案する。
我々は3つの異なるグラフ学習タスクに対して、21の公開データセットに関する広範な実験を行った。
その結果,GraphMAEはグラフオートエンコーダであり,設計に注意を払っている。
論文 参考訳(メタデータ) (2022-05-22T11:57:08Z) - Graph Pooling for Graph Neural Networks: Progress, Challenges, and
Opportunities [128.55790219377315]
グラフニューラルネットワークは多くのグラフレベルのタスクの主要なアーキテクチャとして登場した。
グラフプーリングは、グラフ全体の全体的グラフレベル表現を得るためには不可欠である。
論文 参考訳(メタデータ) (2022-04-15T04:02:06Z) - Quantifying Challenges in the Application of Graph Representation
Learning [0.0]
私たちは、一般的な埋め込みアプローチのセットに対して、アプリケーション指向の視点を提供します。
実世界のグラフ特性に関する表現力を評価する。
GRLアプローチは現実のシナリオでは定義が困難であることが示唆された。
論文 参考訳(メタデータ) (2020-06-18T03:19:43Z) - Tensor Graph Convolutional Networks for Multi-relational and Robust
Learning [74.05478502080658]
本稿では,テンソルで表されるグラフの集合に関連するデータから,スケーラブルな半教師付き学習(SSL)を実現するためのテンソルグラフ畳み込みネットワーク(TGCN)を提案する。
提案アーキテクチャは、標準的なGCNと比較して大幅に性能が向上し、最先端の敵攻撃に対処し、タンパク質間相互作用ネットワーク上でのSSL性能が著しく向上する。
論文 参考訳(メタデータ) (2020-03-15T02:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。