論文の概要: Efficient and Explainable Graph Neural Architecture Search via
Monte-Carlo Tree Search
- arxiv url: http://arxiv.org/abs/2308.15734v2
- Date: Fri, 1 Sep 2023 01:10:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-04 10:55:53.572494
- Title: Efficient and Explainable Graph Neural Architecture Search via
Monte-Carlo Tree Search
- Title(参考訳): モンテカルロ木探索による効率的かつ説明可能なグラフニューラルネットワーク探索
- Authors: Yuya Sasaki
- Abstract要約: グラフニューラルネットワーク(GNN)は、さまざまな領域でデータサイエンスタスクを実行する強力なツールである。
人的労力と計算コストを削減するため、グラフニューラルアーキテクチャ探索(Graph NAS)が準最適GNNアーキテクチャの探索に使用されている。
本稿では, (i) 様々なグラフに適応可能な単純な探索空間と, (ii) 決定プロセスを説明可能な検索アルゴリズムからなるExGNASを提案する。
- 参考スコア(独自算出の注目度): 5.076419064097733
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) are powerful tools for performing data science
tasks in various domains. Although we use GNNs in wide application scenarios,
it is a laborious task for researchers and practitioners to design/select
optimal GNN architectures in diverse graphs. To save human efforts and
computational costs, graph neural architecture search (Graph NAS) has been used
to search for a sub-optimal GNN architecture that combines existing components.
However, there are no existing Graph NAS methods that satisfy explainability,
efficiency, and adaptability to various graphs. Therefore, we propose an
efficient and explainable Graph NAS method, called ExGNAS, which consists of
(i) a simple search space that can adapt to various graphs and (ii) a search
algorithm that makes the decision process explainable. The search space
includes only fundamental functions that can handle homophilic and heterophilic
graphs. The search algorithm efficiently searches for the best GNN architecture
via Monte-Carlo tree search without neural models. The combination of our
search space and algorithm achieves finding accurate GNN models and the
important functions within the search space. We comprehensively evaluate our
method compared with twelve hand-crafted GNN architectures and three Graph NAS
methods in four graphs. Our experimental results show that ExGNAS increases AUC
up to 3.6 and reduces run time up to 78\% compared with the state-of-the-art
Graph NAS methods. Furthermore, we show ExGNAS is effective in analyzing the
difference between GNN architectures in homophilic and heterophilic graphs.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、さまざまな領域でデータサイエンスタスクを実行する強力なツールである。
幅広いアプリケーションシナリオでGNNを使用しているが、研究者や実践者が多様なグラフで最適なGNNアーキテクチャを設計・選択することは、面倒な作業である。
人的労力と計算コストを削減するため、グラフニューラルネットワーク検索(Graph NAS)は、既存のコンポーネントを組み合わせた最適化GNNアーキテクチャの探索に使用されている。
しかし、様々なグラフに対する説明可能性、効率、適応性を満たすグラフNASメソッドは存在しない。
そこで我々は,ExGNASと呼ばれる,効率的かつ説明可能なグラフNAS手法を提案する。
(i)様々なグラフに適応可能な簡単な検索空間
(ii)決定過程を説明可能にした探索アルゴリズム。
探索空間はホモフィルグラフとヘテロフィルグラフを扱える基本関数のみを含む。
探索アルゴリズムは、ニューラルネットワークを使わずにモンテカルロ木探索により最適なgnnアーキテクチャを効率的に探索する。
検索空間とアルゴリズムの組み合わせにより,正確なGNNモデルと検索空間内の重要な機能を見つけることができる。
提案手法を,手作りの12のGNNアーキテクチャとグラフNASの3つの手法と比較した。
実験の結果、ExGNASはAUCを3.6まで増加させ、最先端のグラフNAS法と比較して実行時間を78倍に削減した。
さらに, 同好性グラフと異好性グラフにおけるGNNアーキテクチャの違いを分析する上で, ExGNASが有効であることを示す。
関連論文リスト
- Towards Lightweight Graph Neural Network Search with Curriculum Graph Sparsification [48.334100429553644]
本稿では,有意義なグラフデータを通じて重要なサブアーキテクチャを識別する結合グラフデータとアーキテクチャ機構を設計することを提案する。
最適軽量グラフニューラルネット(GNN)を探索するために,グラフスペーシングとネットワーク・プルーニング(GASSIP)法を用いた軽量グラフニューラル・アーキテクチャ・サーチを提案する。
本手法は,探索したGNNとスペーサーグラフのモデルパラメータを半分以下にすることで,オンパーあるいはそれ以上高いノード分類性能を実現する。
論文 参考訳(メタデータ) (2024-06-24T06:53:37Z) - GraphPNAS: Learning Distribution of Good Neural Architectures via Deep
Graph Generative Models [48.57083463364353]
ランダムグラフモデル学習のレンズを用いて,ニューラルアーキテクチャサーチ(NAS)について検討する。
本稿では,優れたアーキテクチャの分布を学習するグラフ生成モデルGraphPNASを提案する。
提案するグラフジェネレータは,RNNベースよりも一貫して優れており,最先端のNAS手法よりも優れた,あるいは同等のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2022-11-28T09:09:06Z) - NAS-Bench-Graph: Benchmarking Graph Neural Architecture Search [55.75621026447599]
NAS-Bench-Graphは、GraphNASの統一的、再現可能、効率的な評価をサポートする調整されたベンチマークである。
具体的には,26,206のユニークなグラフニューラルネットワーク(GNN)アーキテクチャを網羅した,統一的で表現力のあるコンパクトな検索空間を構築する。
提案したベンチマークに基づいて,GNNアーキテクチャの性能を検索テーブルから直接取得できるが,それ以上の計算は行わない。
論文 参考訳(メタデータ) (2022-06-18T10:17:15Z) - Automatic Relation-aware Graph Network Proliferation [182.30735195376792]
GNNを効率的に検索するためのARGNP(Automatic Relation-Aware Graph Network Proliferation)を提案する。
これらの操作は階層的なノード/リレーショナル情報を抽出し、グラフ上のメッセージパッシングのための異方的ガイダンスを提供する。
4つのグラフ学習タスクのための6つのデータセットの実験により、我々の手法によって生成されたGNNは、現在最先端の手作りおよび検索に基づくGNNよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-05-31T10:38:04Z) - Edge-featured Graph Neural Architecture Search [131.4361207769865]
最適GNNアーキテクチャを見つけるために,エッジ機能付きグラフニューラルアーキテクチャ探索を提案する。
具体的には、高次表現を学習するためにリッチなエンティティとエッジの更新操作を設計する。
EGNASは、現在最先端の人間設計および検索されたGNNよりも高い性能で、より優れたGNNを検索できることを示す。
論文 参考訳(メタデータ) (2021-09-03T07:53:18Z) - Search to aggregate neighborhood for graph neural network [47.47628113034479]
そこで本研究では,データ固有のGNNアーキテクチャを自動的に設計するためのフレームワークとして,SANE(Search to Aggregate NEighborhood)を提案する。
新規で表現力のある検索空間を設計することにより,従来の強化学習法よりも効率的である微分可能な探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-04-14T03:15:19Z) - Rethinking Graph Neural Network Search from Message-passing [120.62373472087651]
本稿では,新しい検索空間を設計したグラフニューラルアーキテクチャサーチ(GNAS)を提案する。
グラフニューラルアーキテクチャパラダイム(GAP:Graph Neural Architecture Paradigm)をツリートポロジー計算手順と2種類の微粒原子操作で設計します。
実験では、GNASは複数のメッセージ通過機構と最適なメッセージ通過深さを持つより良いGNNを探索できることを示しています。
論文 参考訳(メタデータ) (2021-03-26T06:10:41Z) - Simplifying Architecture Search for Graph Neural Network [38.45540097927176]
本稿では,新しい探索空間と強化学習に基づく探索アルゴリズムからなるSNAGフレームワークを提案する。
実世界のデータセットを用いた実験は、人間設計のGNNやNAS手法と比較してSNAGフレームワークの有効性を示す。
論文 参考訳(メタデータ) (2020-08-26T16:24:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。