論文の概要: GraphPAS: Parallel Architecture Search for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2112.03461v1
- Date: Tue, 7 Dec 2021 02:55:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 15:00:56.366577
- Title: GraphPAS: Parallel Architecture Search for Graph Neural Networks
- Title(参考訳): GraphPAS: グラフニューラルネットワークのための並列アーキテクチャ検索
- Authors: Jiamin Chen, Jianliang Gao, Yibo Chen, Oloulade Babatounde Moctard,
Tengfei Lyu, Zhao Li
- Abstract要約: グラフニューラルネットワークのための並列グラフアーキテクチャ探索(GraphPAS)フレームワークを提案する。
GraphPASでは、共有ベースの進化学習を設計することで、検索空間を並列に探索する。
実験結果から,GraphPASは最先端モデルの効率と精度を同時に向上することが示された。
- 参考スコア(独自算出の注目度): 12.860313120881996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural architecture search has received a lot of attention as Graph
Neural Networks (GNNs) has been successfully applied on the non-Euclidean data
recently. However, exploring all possible GNNs architectures in the huge search
space is too time-consuming or impossible for big graph data. In this paper, we
propose a parallel graph architecture search (GraphPAS) framework for graph
neural networks. In GraphPAS, we explore the search space in parallel by
designing a sharing-based evolution learning, which can improve the search
efficiency without losing the accuracy. Additionally, architecture information
entropy is adopted dynamically for mutation selection probability, which can
reduce space exploration. The experimental result shows that GraphPAS
outperforms state-of-art models with efficiency and accuracy simultaneously.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)が最近、非ユークリッドデータに適用されたことにより、グラフニューラルネットワークの検索に大きな注目を集めている。
しかし、巨大な検索空間におけるすべてのgnnアーキテクチャの探索には時間がかかりすぎるか、大きなグラフデータでは不可能である。
本稿では,グラフニューラルネットワークのための並列グラフアーキテクチャ探索(GraphPAS)フレームワークを提案する。
graphpasでは,共有型進化学習をデザインし,精度を損なうことなく検索効率を向上させることにより,検索空間を並列に探索する。
さらに、アーキテクチャ情報エントロピーは突然変異選択確率に動的に採用され、宇宙探査を減らすことができる。
実験結果から,GraphPASは最先端モデルの効率と精度を同時に向上することが示された。
関連論文リスト
- Towards Lightweight Graph Neural Network Search with Curriculum Graph Sparsification [48.334100429553644]
本稿では,有意義なグラフデータを通じて重要なサブアーキテクチャを識別する結合グラフデータとアーキテクチャ機構を設計することを提案する。
最適軽量グラフニューラルネット(GNN)を探索するために,グラフスペーシングとネットワーク・プルーニング(GASSIP)法を用いた軽量グラフニューラル・アーキテクチャ・サーチを提案する。
本手法は,探索したGNNとスペーサーグラフのモデルパラメータを半分以下にすることで,オンパーあるいはそれ以上高いノード分類性能を実現する。
論文 参考訳(メタデータ) (2024-06-24T06:53:37Z) - Efficient and Explainable Graph Neural Architecture Search via
Monte-Carlo Tree Search [5.076419064097733]
グラフニューラルネットワーク(GNN)は、さまざまな領域でデータサイエンスタスクを実行する強力なツールである。
人的労力と計算コストを削減するため、グラフニューラルアーキテクチャ探索(Graph NAS)が準最適GNNアーキテクチャの探索に使用されている。
本稿では, (i) 様々なグラフに適応可能な単純な探索空間と, (ii) 決定プロセスを説明可能な検索アルゴリズムからなるExGNASを提案する。
論文 参考訳(メタデータ) (2023-08-30T03:21:45Z) - GraphPNAS: Learning Distribution of Good Neural Architectures via Deep
Graph Generative Models [48.57083463364353]
ランダムグラフモデル学習のレンズを用いて,ニューラルアーキテクチャサーチ(NAS)について検討する。
本稿では,優れたアーキテクチャの分布を学習するグラフ生成モデルGraphPNASを提案する。
提案するグラフジェネレータは,RNNベースよりも一貫して優れており,最先端のNAS手法よりも優れた,あるいは同等のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2022-11-28T09:09:06Z) - NAS-Bench-Graph: Benchmarking Graph Neural Architecture Search [55.75621026447599]
NAS-Bench-Graphは、GraphNASの統一的、再現可能、効率的な評価をサポートする調整されたベンチマークである。
具体的には,26,206のユニークなグラフニューラルネットワーク(GNN)アーキテクチャを網羅した,統一的で表現力のあるコンパクトな検索空間を構築する。
提案したベンチマークに基づいて,GNNアーキテクチャの性能を検索テーブルから直接取得できるが,それ以上の計算は行わない。
論文 参考訳(メタデータ) (2022-06-18T10:17:15Z) - Automatic Relation-aware Graph Network Proliferation [182.30735195376792]
GNNを効率的に検索するためのARGNP(Automatic Relation-Aware Graph Network Proliferation)を提案する。
これらの操作は階層的なノード/リレーショナル情報を抽出し、グラフ上のメッセージパッシングのための異方的ガイダンスを提供する。
4つのグラフ学習タスクのための6つのデータセットの実験により、我々の手法によって生成されたGNNは、現在最先端の手作りおよび検索に基づくGNNよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-05-31T10:38:04Z) - ACE-HGNN: Adaptive Curvature Exploration Hyperbolic Graph Neural Network [72.16255675586089]
本稿では、入力グラフと下流タスクに基づいて最適な曲率を適応的に学習する適応曲率探索ハイパーボリックグラフニューラルネットワークACE-HGNNを提案する。
複数の実世界のグラフデータセットの実験は、競争性能と優れた一般化能力を備えたモデル品質において、顕著で一貫したパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2021-10-15T07:18:57Z) - Edge-featured Graph Neural Architecture Search [131.4361207769865]
最適GNNアーキテクチャを見つけるために,エッジ機能付きグラフニューラルアーキテクチャ探索を提案する。
具体的には、高次表現を学習するためにリッチなエンティティとエッジの更新操作を設計する。
EGNASは、現在最先端の人間設計および検索されたGNNよりも高い性能で、より優れたGNNを検索できることを示す。
論文 参考訳(メタデータ) (2021-09-03T07:53:18Z) - Rethinking Graph Neural Network Search from Message-passing [120.62373472087651]
本稿では,新しい検索空間を設計したグラフニューラルアーキテクチャサーチ(GNAS)を提案する。
グラフニューラルアーキテクチャパラダイム(GAP:Graph Neural Architecture Paradigm)をツリートポロジー計算手順と2種類の微粒原子操作で設計します。
実験では、GNASは複数のメッセージ通過機構と最適なメッセージ通過深さを持つより良いGNNを探索できることを示しています。
論文 参考訳(メタデータ) (2021-03-26T06:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。