論文の概要: LLMs Between the Nodes: Community Discovery Beyond Vectors
- arxiv url: http://arxiv.org/abs/2507.22955v1
- Date: Tue, 29 Jul 2025 20:47:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-01 17:19:08.40828
- Title: LLMs Between the Nodes: Community Discovery Beyond Vectors
- Title(参考訳): ノード間のLLM - ベクトルを越えたコミュニティディスカバリ
- Authors: Ekta Gujral, Apurva Sinha,
- Abstract要約: ソーシャルネットワークグラフにおけるコミュニティ検出は、グループダイナミクス、影響経路、情報の拡散を明らかにする上で重要な役割を担っている。
大規模言語モデル(LLM)の最近の進歩は、このタスクに意味情報と文脈情報を統合するための新たな道を開く。
我々は,GPT-4oモデルとプロンプトベースの推論を利用して,言語モデル出力とグラフ構造を融合する2段階のフレームワークCommLLMを紹介した。
- 参考スコア(独自算出の注目度): 0.6445605125467574
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Community detection in social network graphs plays a vital role in uncovering group dynamics, influence pathways, and the spread of information. Traditional methods focus primarily on graph structural properties, but recent advancements in Large Language Models (LLMs) open up new avenues for integrating semantic and contextual information into this task. In this paper, we present a detailed investigation into how various LLM-based approaches perform in identifying communities within social graphs. We introduce a two-step framework called CommLLM, which leverages the GPT-4o model along with prompt-based reasoning to fuse language model outputs with graph structure. Evaluations are conducted on six real-world social network datasets, measuring performance using key metrics such as Normalized Mutual Information (NMI), Adjusted Rand Index (ARI), Variation of Information (VOI), and cluster purity. Our findings reveal that LLMs, particularly when guided by graph-aware strategies, can be successfully applied to community detection tasks in small to medium-sized graphs. We observe that the integration of instruction-tuned models and carefully engineered prompts significantly improves the accuracy and coherence of detected communities. These insights not only highlight the potential of LLMs in graph-based research but also underscore the importance of tailoring model interactions to the specific structure of graph data.
- Abstract(参考訳): ソーシャルネットワークグラフにおけるコミュニティ検出は、グループダイナミクス、影響経路、情報の拡散を明らかにする上で重要な役割を担っている。
従来の手法は主にグラフ構造特性に重点を置いているが、Large Language Models (LLM) の最近の進歩により、意味と文脈情報をこのタスクに統合するための新たな道が開かれた。
本稿では,ソーシャルグラフ内のコミュニティを識別する上で,LLMに基づく様々なアプローチがどのように機能するかを詳細に検討する。
我々は,GPT-4oモデルとプロンプトベースの推論を利用して,言語モデル出力とグラフ構造を融合する2段階のフレームワークCommLLMを紹介した。
6つの実世界のソーシャルネットワークデータセットを用いて評価を行い、正規化相互情報(NMI)、調整ランダム指標(ARI)、情報変動(VOI)、クラスタ純度といった重要な指標を用いて性能を測定する。
この結果から,LLMは,特にグラフ認識戦略によって指導された場合,小~中規模のグラフにおいて,コミュニティ検出タスクにうまく適用できることが判明した。
命令調整モデルと慎重に設計したプロンプトの統合は、検出されたコミュニティの精度とコヒーレンスを大幅に向上させる。
これらの知見は、グラフベースの研究におけるLLMの可能性だけでなく、グラフデータの特定の構造に対するモデル相互作用の調整の重要性も強調している。
関連論文リスト
- Graph Collaborative Attention Network for Link Prediction in Knowledge Graphs [0.0]
我々は、マルチヘッドの注意を生かしたグラフニューラルネットワークモデルKBGATに着目し、局所的な近傍構造における実体的特徴と関係性の両方を共同で符号化する。
textbfGCAT(Graph Collaborative Attention Network)は,異種ノード間のコンテキストアグリゲーションとインタラクションを強化する改良されたモデルである。
本研究は,知識グラフ補完タスクにおいて,複雑なリレーショナルパターンをキャプチャする上で,注目に基づくアーキテクチャの利点を浮き彫りにするものである。
論文 参考訳(メタデータ) (2025-07-05T08:13:09Z) - GraphOmni: A Comprehensive and Extendable Benchmark Framework for Large Language Models on Graph-theoretic Tasks [26.992997870540435]
Graph Omniは、自然言語で記述されたグラフ理論タスクにおけるLLMの推論能力を評価するためのベンチマークである。
我々は,グラフタイプ,シリアライズ形式,シグナリングスキーム間の重要な相互作用を同定し,モデル性能に大きな影響を与えることを示す。
本稿では,LLM推論能力に影響を与える最適要因を適応的に選択する強化学習型フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-17T09:01:16Z) - Graph Foundation Models for Recommendation: A Comprehensive Survey [55.70529188101446]
大規模言語モデル(LLM)は自然言語を処理し、理解するために設計されており、どちらも非常に効果的で広く採用されている。
最近の研究はグラフ基礎モデル(GFM)に焦点を当てている。
GFM は GNN と LLM の強みを統合し,複雑な RS 問題をより効率的にモデル化する。
論文 参考訳(メタデータ) (2025-02-12T12:13:51Z) - Graph Learning in the Era of LLMs: A Survey from the Perspective of Data, Models, and Tasks [25.720233631885726]
グラフニューラルネットワーク(GNN)とLarge Language Models(LLM)の統合は、有望な技術パラダイムとして現れている。
データ品質を根本的に向上させるために、リッチなセマンティックコンテキストを持つグラフ記述テキストを活用します。
この研究は、グラフ学習方法論の進歩を目指す研究者や実践者にとって、基礎的な参考となる。
論文 参考訳(メタデータ) (2024-12-17T01:41:17Z) - How Do Large Language Models Understand Graph Patterns? A Benchmark for Graph Pattern Comprehension [53.6373473053431]
この研究は、グラフパターンタスクにおける大規模言語モデルの能力を評価するためのベンチマークを導入する。
我々は,LLMが用語的記述と位相的記述の両方に基づいて,グラフパターンを理解できるかどうかを評価するベンチマークを開発した。
私たちのベンチマークでは、合成データセットと実際のデータセットの両方と、11のタスクと7のモデルで構成されています。
論文 参考訳(メタデータ) (2024-10-04T04:48:33Z) - A Survey of Large Language Models for Graphs [21.54279919476072]
我々は、グラフ学習に適用された最新の最先端の大規模言語モデルについて、詳細なレビューを行う。
フレームワーク設計に基づいて既存の手法を分類する新しい分類法を提案する。
各フレームワークの長所と短所について検討し,今後の研究への可能性を強調する。
論文 参考訳(メタデータ) (2024-05-10T18:05:37Z) - Disentangled Representation Learning with Large Language Models for
Text-Attributed Graphs [57.052160123387104]
本稿では,TAGに対するLLMの推論と予測能力を向上させることができるDGTLモデルを提案する。
提案するDGTLモデルでは, グラフ構造情報をGNN層に組み込む。
実験により,提案したDGTLモデルにより,最先端のベースラインよりも優れた性能,あるいは同等の性能が得られることを示した。
論文 参考訳(メタデータ) (2023-10-27T14:00:04Z) - Integrating Graphs with Large Language Models: Methods and Prospects [68.37584693537555]
大規模言語モデル (LLMs) が最前線として登場し、様々なアプリケーションにおいて非並列の長所を示している。
LLMとグラフ構造化データを組み合わせることは、非常に興味深いトピックです。
本稿では、そのような統合を2つの主要なカテゴリに分岐する。
論文 参考訳(メタデータ) (2023-10-09T07:59:34Z) - Graph Learning based Recommender Systems: A Review [111.43249652335555]
グラフ学習ベースのレコメンダーシステム(GLRS)は、高度なグラフ学習アプローチを使用して、ユーザーの好みと意図、および推奨項目の特性をモデル化します。
本稿では,グラフに基づく表現から重要な知識を抽出し,レコメンデーションの正確性,信頼性,説明性を向上する方法について論じることにより,GLRSの体系的なレビューを行う。
論文 参考訳(メタデータ) (2021-05-13T14:50:45Z) - Tensor Graph Convolutional Networks for Multi-relational and Robust
Learning [74.05478502080658]
本稿では,テンソルで表されるグラフの集合に関連するデータから,スケーラブルな半教師付き学習(SSL)を実現するためのテンソルグラフ畳み込みネットワーク(TGCN)を提案する。
提案アーキテクチャは、標準的なGCNと比較して大幅に性能が向上し、最先端の敵攻撃に対処し、タンパク質間相互作用ネットワーク上でのSSL性能が著しく向上する。
論文 参考訳(メタデータ) (2020-03-15T02:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。