論文の概要: Simplifying Architecture Search for Graph Neural Network
- arxiv url: http://arxiv.org/abs/2008.11652v2
- Date: Sun, 6 Sep 2020 12:06:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 21:02:09.720295
- Title: Simplifying Architecture Search for Graph Neural Network
- Title(参考訳): グラフニューラルネットワークのためのアーキテクチャ探索の簡易化
- Authors: Huan Zhao and Lanning Wei and Quanming Yao
- Abstract要約: 本稿では,新しい探索空間と強化学習に基づく探索アルゴリズムからなるSNAGフレームワークを提案する。
実世界のデータセットを用いた実験は、人間設計のGNNやNAS手法と比較してSNAGフレームワークの有効性を示す。
- 参考スコア(独自算出の注目度): 38.45540097927176
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have witnessed the popularity of Graph Neural Networks (GNN) in
various scenarios. To obtain optimal data-specific GNN architectures,
researchers turn to neural architecture search (NAS) methods, which have made
impressive progress in discovering effective architectures in convolutional
neural networks. Two preliminary works, GraphNAS and Auto-GNN, have made first
attempt to apply NAS methods to GNN. Despite the promising results, there are
several drawbacks in expressive capability and search efficiency of GraphNAS
and Auto-GNN due to the designed search space. To overcome these drawbacks, we
propose the SNAG framework (Simplified Neural Architecture search for Graph
neural networks), consisting of a novel search space and a reinforcement
learning based search algorithm. Extensive experiments on real-world datasets
demonstrate the effectiveness of the SNAG framework compared to human-designed
GNNs and NAS methods, including GraphNAS and Auto-GNN.
- Abstract(参考訳): 近年、様々なシナリオでグラフニューラルネットワーク(GNN)の人気が高まっている。
最適なデータ固有のGNNアーキテクチャを得るために、研究者は畳み込みニューラルネットワークにおいて効果的なアーキテクチャを発見するために驚くべき進歩を遂げたNAS(Neural Architecture Search)手法に目を向けた。
GraphNASとAuto-GNNの2つの予備的な作業は、NASメソッドをGNNに適用する最初の試みである。
有望な結果にもかかわらず、設計された検索空間のため、GraphNASとAuto-GNNの表現能力と検索効率にいくつかの欠点がある。
これらの欠点を克服するために,新たな検索空間と強化学習に基づく検索アルゴリズムからなるsnagフレームワーク(simplified neural architecture search for graph neural networks)を提案する。
実世界のデータセットに関する大規模な実験は、GraphNASやAuto-GNNなど、人間によって設計されたGNNやNASメソッドと比較して、SNAGフレームワークの有効性を示している。
関連論文リスト
- Efficient and Explainable Graph Neural Architecture Search via
Monte-Carlo Tree Search [5.076419064097733]
グラフニューラルネットワーク(GNN)は、さまざまな領域でデータサイエンスタスクを実行する強力なツールである。
人的労力と計算コストを削減するため、グラフニューラルアーキテクチャ探索(Graph NAS)が準最適GNNアーキテクチャの探索に使用されている。
本稿では, (i) 様々なグラフに適応可能な単純な探索空間と, (ii) 決定プロセスを説明可能な検索アルゴリズムからなるExGNASを提案する。
論文 参考訳(メタデータ) (2023-08-30T03:21:45Z) - Do Not Train It: A Linear Neural Architecture Search of Graph Neural
Networks [15.823247346294089]
ニューラルアーキテクチャコーディング(NAC)という新しいNAS-GNN法を開発した。
当社のアプローチでは,最先端のパフォーマンスを実現しています。そのパフォーマンスは,強いベースラインよりも200倍高速で,18.8%の精度で実現しています。
論文 参考訳(メタデータ) (2023-05-23T13:44:04Z) - GraphPNAS: Learning Distribution of Good Neural Architectures via Deep
Graph Generative Models [48.57083463364353]
ランダムグラフモデル学習のレンズを用いて,ニューラルアーキテクチャサーチ(NAS)について検討する。
本稿では,優れたアーキテクチャの分布を学習するグラフ生成モデルGraphPNASを提案する。
提案するグラフジェネレータは,RNNベースよりも一貫して優れており,最先端のNAS手法よりも優れた,あるいは同等のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2022-11-28T09:09:06Z) - Automatic Relation-aware Graph Network Proliferation [182.30735195376792]
GNNを効率的に検索するためのARGNP(Automatic Relation-Aware Graph Network Proliferation)を提案する。
これらの操作は階層的なノード/リレーショナル情報を抽出し、グラフ上のメッセージパッシングのための異方的ガイダンスを提供する。
4つのグラフ学習タスクのための6つのデータセットの実験により、我々の手法によって生成されたGNNは、現在最先端の手作りおよび検索に基づくGNNよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-05-31T10:38:04Z) - Edge-featured Graph Neural Architecture Search [131.4361207769865]
最適GNNアーキテクチャを見つけるために,エッジ機能付きグラフニューラルアーキテクチャ探索を提案する。
具体的には、高次表現を学習するためにリッチなエンティティとエッジの更新操作を設計する。
EGNASは、現在最先端の人間設計および検索されたGNNよりも高い性能で、より優れたGNNを検索できることを示す。
論文 参考訳(メタデータ) (2021-09-03T07:53:18Z) - Search to aggregate neighborhood for graph neural network [47.47628113034479]
そこで本研究では,データ固有のGNNアーキテクチャを自動的に設計するためのフレームワークとして,SANE(Search to Aggregate NEighborhood)を提案する。
新規で表現力のある検索空間を設計することにより,従来の強化学習法よりも効率的である微分可能な探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-04-14T03:15:19Z) - Rethinking Graph Neural Network Search from Message-passing [120.62373472087651]
本稿では,新しい検索空間を設計したグラフニューラルアーキテクチャサーチ(GNAS)を提案する。
グラフニューラルアーキテクチャパラダイム(GAP:Graph Neural Architecture Paradigm)をツリートポロジー計算手順と2種類の微粒原子操作で設計します。
実験では、GNASは複数のメッセージ通過機構と最適なメッセージ通過深さを持つより良いGNNを探索できることを示しています。
論文 参考訳(メタデータ) (2021-03-26T06:10:41Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。