論文の概要: LLM4GNAS: A Large Language Model Based Toolkit for Graph Neural Architecture Search
- arxiv url: http://arxiv.org/abs/2502.10459v1
- Date: Wed, 12 Feb 2025 07:26:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:15:00.734257
- Title: LLM4GNAS: A Large Language Model Based Toolkit for Graph Neural Architecture Search
- Title(参考訳): LLM4GNAS: グラフニューラルネットワーク検索のための大規模言語モデルベースツールキット
- Authors: Yang Gao, Hong Yang, Yizhi Chen, Junxian Wu, Peng Zhang, Haishuai Wang,
- Abstract要約: グラフアーキテクチャ探索(GNAS)はグラフニューラルネットワーク(GNN)の自動設計を容易にする
既存のGNASアプローチでは、しばしば新しいグラフ検索空間に手動で適応する必要がある。
LLM4GNASは,Large Language Models (LLMs) の生成能力を活用したGNAS用ツールキットである。
- 参考スコア(独自算出の注目度): 22.684865806396104
- License:
- Abstract: Graph Neural Architecture Search (GNAS) facilitates the automatic design of Graph Neural Networks (GNNs) tailored to specific downstream graph learning tasks. However, existing GNAS approaches often require manual adaptation to new graph search spaces, necessitating substantial code optimization and domain-specific knowledge. To address this challenge, we present LLM4GNAS, a toolkit for GNAS that leverages the generative capabilities of Large Language Models (LLMs). LLM4GNAS includes an algorithm library for graph neural architecture search algorithms based on LLMs, enabling the adaptation of GNAS methods to new search spaces through the modification of LLM prompts. This approach reduces the need for manual intervention in algorithm adaptation and code modification. The LLM4GNAS toolkit is extensible and robust, incorporating LLM-enhanced graph feature engineering, LLM-enhanced graph neural architecture search, and LLM-enhanced hyperparameter optimization. Experimental results indicate that LLM4GNAS outperforms existing GNAS methods on tasks involving both homogeneous and heterogeneous graphs.
- Abstract(参考訳): Graph Neural Architecture Search (GNAS)は、特定の下流グラフ学習タスクに適したグラフニューラルネットワーク(GNN)の自動設計を容易にする。
しかし、既存のGNASアプローチは、しばしば新しいグラフ検索空間に手動で適応し、コード最適化とドメイン固有の知識を必要とする。
この課題に対処するために,大規模言語モデル (LLM) の生成能力を活用する GNAS 用ツールキット LLM4GNAS を提案する。
LLM4GNASは、LLMに基づくグラフニューラルネットワーク検索アルゴリズムのためのアルゴリズムライブラリを含み、LLMプロンプトの修正により、GNASメソッドを新しい検索空間に適応させることができる。
このアプローチにより、アルゴリズムの適応とコード修正に手動で介入する必要がなくなる。
LLM4GNASツールキットは拡張可能で堅牢であり、LLM強化グラフ特徴工学、LLM強化グラフニューラルネットワーク探索、LLM強化ハイパーパラメータ最適化を取り入れている。
実験結果から、LLM4GNASは、同種グラフと異種グラフの両方を含むタスクにおいて、既存のGNAS法よりも優れていることが示唆された。
関連論文リスト
- Can Large Language Models Analyze Graphs like Professionals? A Benchmark, Datasets and Models [90.98855064914379]
グラフを処理するために,大規模言語モデル(LLM)のベンチマークであるProGraphを導入する。
その結果,現在のLCMの性能は不満足であり,最高のモデルでは36%の精度しか達成できないことがわかった。
本研究では,6つの広く使用されているグラフライブラリに基づいて,クローリングされたドキュメントと自動生成コードを含むLLM4Graphデータセットを提案する。
論文 参考訳(メタデータ) (2024-09-29T11:38:45Z) - All Against Some: Efficient Integration of Large Language Models for Message Passing in Graph Neural Networks [51.19110891434727]
事前訓練された知識と強力なセマンティック理解能力を持つ大規模言語モデル(LLM)は、最近、視覚とテキストデータを使用してアプリケーションに恩恵をもたらす顕著な能力を示している。
E-LLaGNNは、グラフから限られたノード数を増やして、グラフ学習のメッセージパッシング手順を強化するオンデマンドLLMサービスを備えたフレームワークである。
論文 参考訳(メタデータ) (2024-07-20T22:09:42Z) - Towards Lightweight Graph Neural Network Search with Curriculum Graph Sparsification [48.334100429553644]
本稿では,有意義なグラフデータを通じて重要なサブアーキテクチャを識別する結合グラフデータとアーキテクチャ機構を設計することを提案する。
最適軽量グラフニューラルネット(GNN)を探索するために,グラフスペーシングとネットワーク・プルーニング(GASSIP)法を用いた軽量グラフニューラル・アーキテクチャ・サーチを提案する。
本手法は,探索したGNNとスペーサーグラフのモデルパラメータを半分以下にすることで,オンパーあるいはそれ以上高いノード分類性能を実現する。
論文 参考訳(メタデータ) (2024-06-24T06:53:37Z) - Exploring the Potential of Large Language Models in Graph Generation [51.046188600990014]
グラフ生成は、与えられたプロパティを持つグラフを生成するために、大きな言語モデル(LLM)を必要とする。
本稿では,LLMのグラフ生成能力について,系統的なタスク設計と実験による検討を行う。
評価の結果,LLM,特にGPT-4は,グラフ生成タスクに予備的能力を示すことがわかった。
論文 参考訳(メタデータ) (2024-03-21T12:37:54Z) - LLaGA: Large Language and Graph Assistant [73.71990472543027]
大規模言語とグラフアシスタント(LLaGA)は、グラフ構造化データの複雑さを扱う革新的なモデルである。
LLaGAは汎用性、一般化性、解釈性に優れており、異なるデータセットやタスク間で一貫して動作する。
実験の結果,LLaGAは4つのデータセットと3つのタスクに1つの単一モデルを用いて優れた性能を提供することがわかった。
論文 参考訳(メタデータ) (2024-02-13T02:03:26Z) - Large Language Models as Topological Structure Enhancers for Text-Attributed Graphs [4.487720716313697]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野に革命をもたらした。
本研究では,LLMの情報検索とテキスト生成機能を活用して,ノード分類設定の下でのテキスト分散グラフ(TAG)のトポロジ構造を洗練・強化する方法について検討する。
論文 参考訳(メタデータ) (2023-11-24T07:53:48Z) - DFG-NAS: Deep and Flexible Graph Neural Architecture Search [27.337894841649494]
本稿では,非常に深く柔軟なGNNアーキテクチャの自動探索を可能にする新しいニューラルアーキテクチャ探索(NAS)手法であるDFG-NASを提案する。
DFG-NASは、原子伝播(textbftexttP)と変換(textbftexttT)の操作がどのように統合され、GNNに組織化されるかに関するマクロ構造を探索する。
4つのノード分類タスクに関する実証的研究は、DFG-NASがGNNの最先端手動設計やNASメソッドより優れていることを示している。
論文 参考訳(メタデータ) (2022-06-17T06:47:21Z) - Rethinking Graph Neural Network Search from Message-passing [120.62373472087651]
本稿では,新しい検索空間を設計したグラフニューラルアーキテクチャサーチ(GNAS)を提案する。
グラフニューラルアーキテクチャパラダイム(GAP:Graph Neural Architecture Paradigm)をツリートポロジー計算手順と2種類の微粒原子操作で設計します。
実験では、GNASは複数のメッセージ通過機構と最適なメッセージ通過深さを持つより良いGNNを探索できることを示しています。
論文 参考訳(メタデータ) (2021-03-26T06:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。