論文の概要: When LLM Agents Meet Graph Optimization: An Automated Data Quality Improvement Approach
- arxiv url: http://arxiv.org/abs/2510.08952v1
- Date: Fri, 10 Oct 2025 02:59:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:48.027288
- Title: When LLM Agents Meet Graph Optimization: An Automated Data Quality Improvement Approach
- Title(参考訳): LLMエージェントがグラフ最適化と出会うとき - データ品質改善の自動化アプローチ
- Authors: Zhihan Zhang, Xunkai Li, Yilong Zuo, Zhenjun Li, Bing Zhou, Rong-Hua Li, Guoren Wang,
- Abstract要約: テキスト分散グラフ(TAG)上のグラフニューラルネットワーク(GNN)は、入力品質に非常に敏感である。
既存のアプローチは主にモデルアーキテクチャの改善に焦点を当て、TAGデータ自体の体系的な最適化を無視している。
本稿では,グラフ品質制御をデータ中心の第一級問題として扱う統合マルチエージェントフレームワークであるLAGAを提案する。
- 参考スコア(独自算出の注目度): 36.021727145952816
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Text-attributed graphs (TAGs) have emerged as a powerful representation that combines structural connections with fine-grained semantics, supporting a wide range of data-centric applications. However, the performance of graph neural networks (GNNs) on TAGs is highly sensitive to input quality. Our empirical study shows that both traditional GNNs and LLM-enhanced GNNs suffer significant degradation across nine representative scenarios of sparsity, noise, and imbalance, highlighting graph quality as a critical bottleneck. Existing approaches mainly focus on improving model architectures, while neglecting systematic optimization of TAG data itself, leading to limited effectiveness in practice. To address this gap, we propose LAGA (Large Language and Graph Agent), a unified multi-agent framework that treats graph quality control as a first-class, data-centric problem. LAGA integrates four collaborative agents-detection, planning, action, and evaluation-into an automated closed loop. At its core, the action agent employs a dual-encoder and tri-objective design to capture complementary information across modalities and perform holistic graph quality enhancement. Experiments across nine scenarios show that LAGA improves graph quality and achieves state-of-the-art performance across various tasks and backbones, validating data-centric quality optimization as key to reliable TAGs and robust graph learning.
- Abstract(参考訳): テキスト分散グラフ(TAG)は、構造的接続と微細なセマンティクスを組み合わせた強力な表現として登場し、幅広いデータ中心のアプリケーションをサポートする。
しかし、TAGにおけるグラフニューラルネットワーク(GNN)の性能は、入力品質に非常に敏感である。
我々の実証研究は、従来のGNNとLLM強化GNNの両方が、空間性、ノイズ、不均衡の9つの代表的なシナリオで著しく劣化し、グラフ品質を重要なボトルネックとして強調していることを示している。
既存のアプローチは主にモデルアーキテクチャの改善に重点を置いているが、TAGデータ自体の体系的な最適化は無視されているため、実際的な有効性は限られている。
このギャップに対処するため、我々は、グラフ品質制御を第一級のデータ中心問題として扱う統合マルチエージェントフレームワークであるLAGA(Large Language and Graph Agent)を提案する。
LAGAは4つの協調エージェント検出、計画、行動、評価を自動クローズドループに統合する。
その中心となるアクションエージェントは、双対エンコーダと三目的設計を用いて、モダリティ間の相補的な情報をキャプチャし、全体的なグラフ品質向上を行う。
9つのシナリオでの実験では、LAGAはグラフの品質を改善し、さまざまなタスクやバックボーンにわたる最先端のパフォーマンスを実現し、信頼性の高いTAGや堅牢なグラフ学習の鍵としてデータ中心の品質最適化を検証する。
関連論文リスト
- Self-Supervised Graph Learning via Spectral Bootstrapping and Laplacian-Based Augmentations [1.0377683220196872]
本稿では,新しいグラフ学習フレームワークLaplaceGNNを紹介する。
本手法は学習過程にラプラシアンに基づく信号を統合する。
LaplaceGNNは最先端の自己教師付きグラフ法に比べて優れた性能を発揮する。
論文 参考訳(メタデータ) (2025-06-25T12:23:23Z) - Self-Reinforced Graph Contrastive Learning [7.49025068464945]
SRGCL(Self-Reinforced Graph Contrastive Learning)を提案する。
多様なグラフレベルの分類タスクの実験では、SRGCLは最先端のGCL法よりも一貫して優れている。
論文 参考訳(メタデータ) (2025-05-19T18:45:54Z) - Revisiting Graph Neural Networks on Graph-level Tasks: Comprehensive Experiments, Analysis, and Improvements [54.006506479865344]
グラフレベルグラフニューラルネットワーク(GNN)のための統一評価フレームワークを提案する。
このフレームワークは、さまざまなデータセットにわたるGNNを評価するための標準化された設定を提供する。
また,表現性の向上と一般化機能を備えた新しいGNNモデルを提案する。
論文 参考訳(メタデータ) (2025-01-01T08:48:53Z) - TANGNN: a Concise, Scalable and Effective Graph Neural Networks with Top-m Attention Mechanism for Graph Representation Learning [7.879217146851148]
本稿では,Top-mアテンション機構アグリゲーションコンポーネントと近傍アグリゲーションコンポーネントを統合した,革新的なグラフニューラルネットワーク(GNN)アーキテクチャを提案する。
提案手法の有効性を評価するため,提案手法をGNN分野において未探索の新たな課題である引用感情予測に適用した。
論文 参考訳(メタデータ) (2024-11-23T05:31:25Z) - A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - Loss-aware Curriculum Learning for Heterogeneous Graph Neural Networks [30.333265803394998]
異種グラフニューラルネットワーク(GNN)の性能向上のためのカリキュラム学習手法の適用について検討する。
データの品質をよりよく分類するために、データの全ノードの品質を測定するLTSと呼ばれる損失認識トレーニングスケジュールを設計する。
本研究は,複雑なグラフ構造データ解析のためのHGNNの能力向上のためのカリキュラム学習の有効性を示すものである。
論文 参考訳(メタデータ) (2024-02-29T05:44:41Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。