論文の概要: When LLM Agents Meet Graph Optimization: An Automated Data Quality Improvement Approach
- arxiv url: http://arxiv.org/abs/2510.08952v2
- Date: Mon, 20 Oct 2025 04:17:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:11.118001
- Title: When LLM Agents Meet Graph Optimization: An Automated Data Quality Improvement Approach
- Title(参考訳): LLMエージェントがグラフ最適化と出会うとき - データ品質改善の自動化アプローチ
- Authors: Zhihan Zhang, Xunkai Li, Yilong Zuo, Zhaoxin Fan, Zhenjun Li, Bing Zhou, Rong-Hua Li, Guoren Wang,
- Abstract要約: テキスト分散グラフ(TAG)は、現代のデータ管理と分析において、グラフ構造化データの鍵となる形式となっている。
我々の実証分析は、従来のLLM強化グラフニューラルネットワーク(GNN)とLLM強化グラフニューラルネットワーク(GNN)の両方が、テキスト、構造、ラベルの不完全性の下で顕著に劣化していることを示している。
このギャップに対処するため,総合的なTAG品質最適化のための統合マルチエージェントフレームワークであるLAGAを提案する。
- 参考スコア(独自算出の注目度): 41.61211418232501
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Text-attributed graphs (TAGs) have become a key form of graph-structured data in modern data management and analytics, combining structural relationships with rich textual semantics for diverse applications. However, the effectiveness of analytical models, particularly graph neural networks (GNNs), is highly sensitive to data quality. Our empirical analysis shows that both conventional and LLM-enhanced GNNs degrade notably under textual, structural, and label imperfections, underscoring TAG quality as a key bottleneck for reliable analytics. Existing studies have explored data-level optimization for TAGs, but most focus on specific degradation types and target a single aspect like structure or label, lacking a systematic and comprehensive perspective on data quality improvement. To address this gap, we propose LAGA (Large Language and Graph Agent), a unified multi-agent framework for comprehensive TAG quality optimization. LAGA formulates graph quality control as a data-centric process, integrating detection, planning, action, and evaluation agents into an automated loop. It holistically enhances textual, structural, and label aspects through coordinated multi-modal optimization. Extensive experiments on 5 datasets and 16 baselines across 9 scenarios demonstrate the effectiveness, robustness and scalability of LAGA, confirming the importance of data-centric quality optimization for reliable TAG analytics.
- Abstract(参考訳): テキスト分散グラフ(TAG)は、現代のデータ管理と分析においてグラフ構造化データの重要な形態となり、多様なアプリケーションのためのリッチなテキストセマンティクスと構造的関連性を組み合わせた。
しかし、解析モデル、特にグラフニューラルネットワーク(GNN)の有効性は、データ品質に非常に敏感である。
我々の実証分析では、従来のGNNとLLMによるGNNは、特にテキスト、構造、ラベルの欠陥の下で劣化し、TAGの品質を信頼性のある分析の鍵となるボトルネックとして強調している。
既存の研究では、TAGに対するデータレベルの最適化が検討されているが、ほとんどの研究は、特定の劣化タイプに注目し、構造やラベルのような単一の側面をターゲットにしており、データ品質の改善に関する体系的で包括的な視点を欠いている。
このギャップに対処するため,包括的なTAG品質最適化のための統合マルチエージェントフレームワークであるLAGA(Large Language and Graph Agent)を提案する。
LAGAはグラフ品質制御をデータ中心のプロセスとして定式化し、検出、計画、アクション、評価エージェントを自動ループに統合する。
コーディネートされたマルチモーダル最適化により、テキスト、構造、ラベルの側面を均等に強化する。
9つのシナリオにわたる5つのデータセットと16のベースラインに関する大規模な実験は、LAGAの有効性、堅牢性、スケーラビリティを示し、信頼性の高いTAG分析におけるデータ中心の品質最適化の重要性を確認している。
関連論文リスト
- Self-Supervised Graph Learning via Spectral Bootstrapping and Laplacian-Based Augmentations [1.0377683220196872]
本稿では,新しいグラフ学習フレームワークLaplaceGNNを紹介する。
本手法は学習過程にラプラシアンに基づく信号を統合する。
LaplaceGNNは最先端の自己教師付きグラフ法に比べて優れた性能を発揮する。
論文 参考訳(メタデータ) (2025-06-25T12:23:23Z) - Self-Reinforced Graph Contrastive Learning [7.49025068464945]
SRGCL(Self-Reinforced Graph Contrastive Learning)を提案する。
多様なグラフレベルの分類タスクの実験では、SRGCLは最先端のGCL法よりも一貫して優れている。
論文 参考訳(メタデータ) (2025-05-19T18:45:54Z) - Revisiting Graph Neural Networks on Graph-level Tasks: Comprehensive Experiments, Analysis, and Improvements [54.006506479865344]
グラフレベルグラフニューラルネットワーク(GNN)のための統一評価フレームワークを提案する。
このフレームワークは、さまざまなデータセットにわたるGNNを評価するための標準化された設定を提供する。
また,表現性の向上と一般化機能を備えた新しいGNNモデルを提案する。
論文 参考訳(メタデータ) (2025-01-01T08:48:53Z) - TANGNN: a Concise, Scalable and Effective Graph Neural Networks with Top-m Attention Mechanism for Graph Representation Learning [7.879217146851148]
本稿では,Top-mアテンション機構アグリゲーションコンポーネントと近傍アグリゲーションコンポーネントを統合した,革新的なグラフニューラルネットワーク(GNN)アーキテクチャを提案する。
提案手法の有効性を評価するため,提案手法をGNN分野において未探索の新たな課題である引用感情予測に適用した。
論文 参考訳(メタデータ) (2024-11-23T05:31:25Z) - A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - Loss-aware Curriculum Learning for Heterogeneous Graph Neural Networks [30.333265803394998]
異種グラフニューラルネットワーク(GNN)の性能向上のためのカリキュラム学習手法の適用について検討する。
データの品質をよりよく分類するために、データの全ノードの品質を測定するLTSと呼ばれる損失認識トレーニングスケジュールを設計する。
本研究は,複雑なグラフ構造データ解析のためのHGNNの能力向上のためのカリキュラム学習の有効性を示すものである。
論文 参考訳(メタデータ) (2024-02-29T05:44:41Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。