論文の概要: Using Large Language Models to Tackle Fundamental Challenges in Graph Learning: A Comprehensive Survey
- arxiv url: http://arxiv.org/abs/2505.18475v1
- Date: Sat, 24 May 2025 02:38:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.44711
- Title: Using Large Language Models to Tackle Fundamental Challenges in Graph Learning: A Comprehensive Survey
- Title(参考訳): 大規模言語モデルを用いてグラフ学習の基本課題に取り組む - 総合的な調査
- Authors: Mengran Li, Pengyu Zhang, Wenbin Xing, Yijia Zheng, Klim Zaporojets, Junzhou Chen, Ronghui Zhang, Yong Zhang, Siyuan Gong, Jia Hu, Xiaolei Ma, Zhiyuan Liu, Paul Groth, Marcel Worring,
- Abstract要約: 実世界のグラフデータは、しばしば従来のグラフ学習法の前提に反する。
大規模言語モデル(LLM)の最近の進歩は、これらの課題に取り組む可能性を秘めている。
- 参考スコア(独自算出の注目度): 38.05140658792701
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graphs are a widely used paradigm for representing non-Euclidean data, with applications ranging from social network analysis to biomolecular prediction. Conventional graph learning approaches typically rely on fixed structural assumptions or fully observed data, limiting their effectiveness in more complex, noisy, or evolving settings. Consequently, real-world graph data often violates the assumptions of traditional graph learning methods, in particular, it leads to four fundamental challenges: (1) Incompleteness, real-world graphs have missing nodes, edges, or attributes; (2) Imbalance, the distribution of the labels of nodes or edges and their structures for real-world graphs are highly skewed; (3) Cross-domain Heterogeneity, graphs from different domains exhibit incompatible feature spaces or structural patterns; and (4) Dynamic Instability, graphs evolve over time in unpredictable ways. Recent advances in Large Language Models (LLMs) offer the potential to tackle these challenges by leveraging rich semantic reasoning and external knowledge. This survey provides a comprehensive review of how LLMs can be integrated with graph learning to address the aforementioned challenges. For each challenge, we review both traditional solutions and modern LLM-driven approaches, highlighting how LLMs contribute unique advantages. Finally, we discuss open research questions and promising future directions in this emerging interdisciplinary field. To support further exploration, we have curated a repository of recent advances on graph learning challenges: https://github.com/limengran98/Awesome-Literature-Graph-Learning-Challenges.
- Abstract(参考訳): グラフは、ソーシャルネットワーク分析から生体分子予測に至るまで、非ユークリッドデータを表現するために広く使われているパラダイムである。
従来のグラフ学習アプローチは、一般的に、固定された構造的仮定や完全に観察されたデータに依存し、より複雑でうるさい、あるいは進化する設定での有効性を制限する。
その結果、実世界のグラフデータは従来のグラフ学習手法の仮定に反することが多く、(1)不完全性、実世界のグラフにはノード、エッジ、属性が欠けていること、(2)ノードやエッジのラベルとその構造が高度に歪められていること、(3)ドメイン間の異質性、異なるドメインのグラフは互換性のない特徴空間や構造パターンを示すこと、(4)動的不安定性、グラフは予測不可能な方法で時間とともに進化する。
LLM(Large Language Models)の最近の進歩は、リッチなセマンティック推論と外部知識を活用することによって、これらの課題に取り組む可能性を秘めている。
この調査は、前述の課題に対処するために、LCMをグラフ学習と統合する方法の包括的なレビューを提供する。
それぞれの課題に対して、従来のソリューションと現代のLLM駆動アプローチの両方をレビューし、LLMがユニークな利点にどのように貢献するかを強調します。
最後に,この新たな学際分野におけるオープンな研究課題と今後の方向性について論じる。
さらなる探索をサポートするため、グラフ学習の課題に関する最近の進歩のリポジトリをキュレートした。
関連論文リスト
- Towards Data-centric Machine Learning on Directed Graphs: a Survey [23.498557237805414]
本稿では,有向グラフ学習研究のための新しい分類法を提案する。
我々はこれらの手法をデータ中心の観点から再検討し、データ表現の理解と改善に重点を置いている。
我々はこの分野における主要な機会と課題を特定し、有向グラフ学習における将来の研究と開発を導く洞察を提供する。
論文 参考訳(メタデータ) (2024-11-28T06:09:12Z) - OpenGraph: Towards Open Graph Foundation Models [20.401374302429627]
グラフニューラルネットワーク(GNN)は、構造情報を符号化するための有望な技術として登場した。
主な課題は、異なる性質を持つグラフデータを一般化することの難しさである。
この課題に対処するために,OpenGraphと呼ばれる新しいグラフ基盤モデルを提案する。
論文 参考訳(メタデータ) (2024-03-02T08:05:03Z) - Continual Learning on Graphs: Challenges, Solutions, and Opportunities [72.7886669278433]
本稿では,既存の連続グラフ学習(CGL)アルゴリズムの総合的なレビューを行う。
従来の連続学習手法と比較し,従来の連続学習手法の適用性を分析した。
アクセス可能なアルゴリズムの包括的なリストを含む、最新のリポジトリを維持します。
論文 参考訳(メタデータ) (2024-02-18T12:24:45Z) - A Survey of Imbalanced Learning on Graphs: Problems, Techniques, and
Future Directions [64.84521350148513]
グラフは、現実世界の無数に存在する相互接続構造を表す。
グラフ学習方法のような効果的なグラフ分析により、ユーザはグラフデータから深い洞察を得ることができる。
しかし、これらの手法はデータ不均衡に悩まされることが多く、グラフデータでは、あるセグメントが豊富なデータを持っているのに、他のセグメントが不足しているのが一般的な問題である。
これは、より正確で代表的な学習結果のために、これらのデータ分散スキューを補正することを目的として、グラフ上の不均衡学習の出現する分野を必要とする。
論文 参考訳(メタデータ) (2023-08-26T09:11:44Z) - Continual Graph Learning: A Survey [4.618696834991205]
連続学習(CL)の研究は主にユークリッド空間で表されるデータに焦点を当てている。
ほとんどのグラフ学習モデルは静的グラフ用に調整されている。
グラフ学習モデルが漸進的にトレーニングされるとき、破滅的な忘れ方も現れます。
論文 参考訳(メタデータ) (2023-01-28T15:42:49Z) - State of the Art and Potentialities of Graph-level Learning [54.68482109186052]
グラフレベルの学習は、比較、回帰、分類など、多くのタスクに適用されている。
グラフの集合を学習する伝統的なアプローチは、サブストラクチャのような手作りの特徴に依存している。
ディープラーニングは、機能を自動的に抽出し、グラフを低次元表現に符号化することで、グラフレベルの学習をグラフの規模に適応させるのに役立っている。
論文 参考訳(メタデータ) (2023-01-14T09:15:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。