論文の概要: Dynamic and Textual Graph Generation Via Large-Scale LLM-based Agent Simulation
- arxiv url: http://arxiv.org/abs/2410.09824v1
- Date: Sun, 13 Oct 2024 12:57:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-15 15:10:08.705824
- Title: Dynamic and Textual Graph Generation Via Large-Scale LLM-based Agent Simulation
- Title(参考訳): 大規模LCMエージェントシミュレーションによる動的・テキストグラフ生成
- Authors: Jiarui Ji, Runlin Lei, Jialing Bi, Zhewei Wei, Yankai Lin, Xuchen Pan, Yaliang Li, Bolin Ding,
- Abstract要約: GraphAgent-Generator (GAG) は動的グラフ生成のための新しいシミュレーションベースのフレームワークである。
本フレームワークは,確立されたネットワーク科学理論において,7つのマクロレベルの構造特性を効果的に再現する。
最大10万近いノードと1000万のエッジを持つグラフの生成をサポートし、最低速度は90.4%である。
- 参考スコア(独自算出の注目度): 70.60461609393779
- License:
- Abstract: Graph generation is a fundamental task that has been extensively studied in social, technological, and scientific analysis. For modeling the dynamic graph evolution process, traditional rule-based methods struggle to capture community structures within graphs, while deep learning methods only focus on fitting training graphs. This limits existing graph generators to producing graphs that adhere to predefined rules or closely resemble training datasets, achieving poor performance in dynamic graph generation. Given that graphs are abstract representations arising from pairwise interactions in human activities, a realistic simulation of human-wise interaction could provide deeper insights into the graph evolution mechanism. With the increasing recognition of large language models (LLMs) in simulating human behavior, we introduce GraphAgent-Generator (GAG), a novel simulation-based framework for dynamic graph generation. Without training or fine-tuning process of LLM, our framework effectively replicates seven macro-level structural characteristics in established network science theories while surpassing existing baselines in graph expansion tasks by 31\% on specific evaluation metrics. Through node classification task, we validate GAG effectively preserves characteristics of real-world network for node-wise textual features in generated text-rich graph. Furthermore, by incorporating parallel acceleration, GAG supports generating graphs with up to nearly 100,000 nodes or 10 million edges through large-scale LLM-based agent simulation, with a minimum speed-up of 90.4\%. The source code is available at https://anonymous.4open.science/r/GraphAgent-2206.
- Abstract(参考訳): グラフ生成は、社会、技術、科学分析において広く研究されている基本的な課題である。
動的グラフの進化過程をモデル化するために、従来のルールベースの手法は、グラフ内のコミュニティ構造を捉えるのに苦労する。
これにより、既存のグラフジェネレータは、事前定義されたルールに準拠したり、トレーニングデータセットによく似たグラフを生成することができ、動的グラフ生成ではパフォーマンスが劣る。
グラフは、人間の活動におけるペアワイズ相互作用から生じる抽象的な表現であることを考えると、人間の相互作用の現実的なシミュレーションは、グラフの進化機構について深い洞察を与える可能性がある。
人行動のシミュレーションにおいて,大規模言語モデル (LLM) の認識が高まるとともに,動的グラフ生成のための新しいシミュレーションベースフレームワークである GraphAgent-Generator (GAG) を導入する。
LLMのトレーニングや微調整を行なわず,既存のグラフ拡張タスクのベースラインを31倍に越えつつ,確立されたネットワーク科学理論における7つのマクロレベルの構造特性を効果的に再現する。
ノード分類タスクを通じて、GAGは生成したテキストリッチグラフのノード単位のテキスト特徴に対して、実世界のネットワーク特性を効果的に保存する。
さらに、並列加速度を組み込むことで、GAGは大規模なLSMベースのエージェントシミュレーションにより、最大10万のノードと1000万のエッジを持つグラフの生成をサポートし、最小速度は90.4\%である。
ソースコードはhttps://anonymous.4open.science/r/GraphAgent-2206で公開されている。
関連論文リスト
- MuseGraph: Graph-oriented Instruction Tuning of Large Language Models
for Generic Graph Mining [41.19687587548107]
グラフニューラルネットワーク(GNN)は、異なるグラフタスクやデータセットに適用されるたびに、再トレーニングされる必要がある。
GNNとLarge Language Models(LLM)の強みをシームレスに統合する新しいフレームワークMusteGraphを提案する。
実験結果から,異なるグラフタスクの大幅な改善が示された。
論文 参考訳(メタデータ) (2024-03-02T09:27:32Z) - SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - Graph Generation with Diffusion Mixture [57.78958552860948]
グラフの生成は、非ユークリッド構造の複雑な性質を理解する必要がある実世界のタスクにとって大きな課題である。
本稿では,拡散過程の最終グラフ構造を明示的に学習することにより,グラフのトポロジーをモデル化する生成フレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-07T17:07:46Z) - Similarity-aware Positive Instance Sampling for Graph Contrastive
Pre-training [82.68805025636165]
トレーニングセット内の既存グラフから直接正のグラフインスタンスを選択することを提案する。
私たちの選択は、特定のドメイン固有のペアワイズ類似度測定に基づいています。
さらに,ノードを動的にマスキングしてグラフ上に均等に分配する適応ノードレベルの事前学習手法を開発した。
論文 参考訳(メタデータ) (2022-06-23T20:12:51Z) - Instant Graph Neural Networks for Dynamic Graphs [18.916632816065935]
Instant Graph Neural Network (InstantGNN) を提案する。
提案手法は,時間を要する反復計算を回避し,表現の即時更新と即時予測を可能にする。
本モデルでは,既存手法よりも高精度かつ高次精度で最先端の精度を実現する。
論文 参考訳(メタデータ) (2022-06-03T03:27:42Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Dynamic Graph Representation Learning via Graph Transformer Networks [41.570839291138114]
動的グラフ変換器 (DGT) を用いた動的グラフ学習手法を提案する。
DGTは、グラフトポロジを効果的に学習し、暗黙のリンクをキャプチャするための時空間符号化を持つ。
DGTはいくつかの最先端のベースラインと比較して優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-19T21:44:23Z) - Learning Attribute-Structure Co-Evolutions in Dynamic Graphs [28.848851822725933]
本稿では動的属性グラフシーケンスをモデル化するCoEvoGNNという新しいフレームワークを提案する。
これは、シーケンスを通じて生成を埋め込むことで、現在のグラフに対する以前のグラフの影響を保っている。
進化における長距離依存をモデル化するための時間的自己認識機構を持つ。
論文 参考訳(メタデータ) (2020-07-25T20:07:28Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。