論文の概要: ABG-NAS: Adaptive Bayesian Genetic Neural Architecture Search for Graph Representation Learning
- arxiv url: http://arxiv.org/abs/2504.21254v1
- Date: Wed, 30 Apr 2025 01:44:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:10.991166
- Title: ABG-NAS: Adaptive Bayesian Genetic Neural Architecture Search for Graph Representation Learning
- Title(参考訳): ABG-NAS:適応ベイズ型遺伝的ニューラルネットワークによるグラフ表現学習
- Authors: Sixuan Wang, Jiao Yin, Jinli Cao, MingJian Tang, Hua Wang, Yanchun Zhang,
- Abstract要約: ABG-NASは、効率的なグラフ表現学習に適した、グラフニューラルネットワークアーキテクチャの自動検索のための新しいフレームワークである。
ABG-NASは、手動設計のGNNと最先端のニューラルアーキテクチャサーチ(NAS)の両方よりも一貫して優れている。
- 参考スコア(独自算出の注目度): 9.12960281953478
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Effective and efficient graph representation learning is essential for enabling critical downstream tasks, such as node classification, link prediction, and subgraph search. However, existing graph neural network (GNN) architectures often struggle to adapt to diverse and complex graph structures, limiting their ability to provide robust and generalizable representations. To address this challenge, we propose ABG-NAS, a novel framework for automated graph neural network architecture search tailored for efficient graph representation learning. ABG-NAS encompasses three key components: a Comprehensive Architecture Search Space (CASS), an Adaptive Genetic Optimization Strategy (AGOS), and a Bayesian-Guided Tuning Module (BGTM). CASS systematically explores diverse propagation (P) and transformation (T) operations, enabling the discovery of GNN architectures capable of capturing intricate graph characteristics. AGOS dynamically balances exploration and exploitation, ensuring search efficiency and preserving solution diversity. BGTM further optimizes hyperparameters periodically, enhancing the scalability and robustness of the resulting architectures. Empirical evaluations on benchmark datasets (Cora, PubMed, Citeseer, and CoraFull) demonstrate that ABG-NAS consistently outperforms both manually designed GNNs and state-of-the-art neural architecture search (NAS) methods. These results highlight the potential of ABG-NAS to advance graph representation learning by providing scalable and adaptive solutions for diverse graph structures. Our code is publicly available at https://github.com/sserranw/ABG-NAS.
- Abstract(参考訳): 効率的なグラフ表現学習は、ノード分類、リンク予測、サブグラフ探索などの重要な下流タスクを可能にするために不可欠である。
しかしながら、既存のグラフニューラルネットワーク(GNN)アーキテクチャは、多種多様な複雑なグラフ構造への適応に苦慮し、堅牢で一般化可能な表現を提供する能力を制限する。
この課題に対処するために,効率的なグラフ表現学習に適したグラフニューラルネットワークアーキテクチャ検索のための新しいフレームワークであるABG-NASを提案する。
ABG-NASは、包括的アーキテクチャ検索空間(CASS)、適応遺伝的最適化戦略(AGOS)、ベイズ誘導チューニングモジュール(BGTM)の3つの主要なコンポーネントを含んでいる。
CASSは多種多様な伝搬(P)と変換(T)の操作を体系的に探索し、複雑なグラフ特性を捉えることができるGNNアーキテクチャの発見を可能にする。
AGOSは探索とエクスプロイトを動的にバランスさせ、探索効率を確保し、ソリューションの多様性を維持する。
BGTMはさらに定期的にハイパーパラメータを最適化し、結果として生じるアーキテクチャのスケーラビリティと堅牢性を高める。
ベンチマークデータセット(Cora、PubMed、Citeseer、CoraFull)に関する実証的な評価は、ABG-NASが手作業で設計したGNNと最先端のニューラルネットワークサーチ(NAS)の両方よりも一貫して優れていることを示している。
これらの結果は、多様なグラフ構造に対してスケーラブルで適応的なソリューションを提供することにより、ABG-NASがグラフ表現学習を前進させる可能性を強調している。
私たちのコードはhttps://github.com/sserranw/ABG-NAS.comで公開されています。
関連論文リスト
- Towards Lightweight Graph Neural Network Search with Curriculum Graph Sparsification [48.334100429553644]
本稿では,有意義なグラフデータを通じて重要なサブアーキテクチャを識別する結合グラフデータとアーキテクチャ機構を設計することを提案する。
最適軽量グラフニューラルネット(GNN)を探索するために,グラフスペーシングとネットワーク・プルーニング(GASSIP)法を用いた軽量グラフニューラル・アーキテクチャ・サーチを提案する。
本手法は,探索したGNNとスペーサーグラフのモデルパラメータを半分以下にすることで,オンパーあるいはそれ以上高いノード分類性能を実現する。
論文 参考訳(メタデータ) (2024-06-24T06:53:37Z) - GraphPNAS: Learning Distribution of Good Neural Architectures via Deep
Graph Generative Models [48.57083463364353]
ランダムグラフモデル学習のレンズを用いて,ニューラルアーキテクチャサーチ(NAS)について検討する。
本稿では,優れたアーキテクチャの分布を学習するグラフ生成モデルGraphPNASを提案する。
提案するグラフジェネレータは,RNNベースよりも一貫して優れており,最先端のNAS手法よりも優れた,あるいは同等のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2022-11-28T09:09:06Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - ACE-HGNN: Adaptive Curvature Exploration Hyperbolic Graph Neural Network [72.16255675586089]
本稿では、入力グラフと下流タスクに基づいて最適な曲率を適応的に学習する適応曲率探索ハイパーボリックグラフニューラルネットワークACE-HGNNを提案する。
複数の実世界のグラフデータセットの実験は、競争性能と優れた一般化能力を備えたモデル品質において、顕著で一貫したパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2021-10-15T07:18:57Z) - Edge-featured Graph Neural Architecture Search [131.4361207769865]
最適GNNアーキテクチャを見つけるために,エッジ機能付きグラフニューラルアーキテクチャ探索を提案する。
具体的には、高次表現を学習するためにリッチなエンティティとエッジの更新操作を設計する。
EGNASは、現在最先端の人間設計および検索されたGNNよりも高い性能で、より優れたGNNを検索できることを示す。
論文 参考訳(メタデータ) (2021-09-03T07:53:18Z) - Rethinking Graph Neural Network Search from Message-passing [120.62373472087651]
本稿では,新しい検索空間を設計したグラフニューラルアーキテクチャサーチ(GNAS)を提案する。
グラフニューラルアーキテクチャパラダイム(GAP:Graph Neural Architecture Paradigm)をツリートポロジー計算手順と2種類の微粒原子操作で設計します。
実験では、GNASは複数のメッセージ通過機構と最適なメッセージ通過深さを持つより良いGNNを探索できることを示しています。
論文 参考訳(メタデータ) (2021-03-26T06:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。