論文の概要: Explainable Graph Neural Architecture Search via Monte-Carlo Tree Search (Full version)
- arxiv url: http://arxiv.org/abs/2308.15734v3
- Date: Tue, 04 Nov 2025 08:00:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.489006
- Title: Explainable Graph Neural Architecture Search via Monte-Carlo Tree Search (Full version)
- Title(参考訳): モンテカルロ木探索による説明可能なグラフニューラルアーキテクチャ探索(フルバージョン)
- Authors: Yuya Sasaki,
- Abstract要約: 多様なグラフで最適グラフニューラルネットワーク(GNN)アーキテクチャを設計・選択することは、面倒な作業である。
既存のGraph NASメソッドには、モデルアーキテクチャが選択された理由を理解するための説明性がない。
本研究では, (i) 様々なグラフに適応可能な単純な探索空間と, (ii) 決定過程を説明可能なモンテカルロ木を用いた探索アルゴリズムからなる, ExGNAS と呼ばれる説明可能なグラフNAS法を提案する。
- 参考スコア(独自算出の注目度): 3.858078488714277
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The number of graph neural network (GNN) architectures has increased rapidly due to the growing adoption of graph analysis. Although we use GNNs in wide application scenarios, it is a laborious task to design/select optimal GNN architectures in diverse graphs. To reduce human efforts, graph neural architecture search (Graph NAS) has been used to search for a sub-optimal GNN architecture that combines existing components. However, existing Graph NAS methods lack explainability to understand the reasons why the model architecture is selected because they use complex search space and neural models to select architecture. Therefore, we propose an explainable Graph NAS method, called ExGNAS, which consists of (i) a simple search space that can adapt to various graphs and (ii) a search algorithm with Monte-Carlo tree that makes the decision process explainable. The combination of our search space and algorithm achieves finding accurate GNN models and the important functions within the search space. We comprehensively evaluate ExGNAS compared with four state-of-the-art Graph NAS methods in twelve graphs. Our experimental results show that ExGNAS achieves high average accuracy and efficiency; improving accuracy up to 26.1% and reducing run time up to 88%. Furthermore, we show the effectiveness of explainability by questionnaire-based user study and architecture analysis.
- Abstract(参考訳): グラフ分析の普及に伴い,グラフニューラルネットワーク(GNN)アーキテクチャの数は急速に増加している。
幅広いアプリケーションシナリオでGNNを使用しているが、多彩なグラフで最適なGNNアーキテクチャを設計・選択するのは面倒な作業である。
人間の努力を減らすため、グラフニューラルアーキテクチャサーチ(Graph NAS)が、既存のコンポーネントを組み合わせた準最適GNNアーキテクチャの探索に使用されている。
しかし、既存のグラフNAS手法では、複雑な検索空間とニューラルモデルを使用してアーキテクチャを選択するため、モデルアーキテクチャが選択される理由を理解することができない。
そこで我々は,ExGNASと呼ばれるグラフNAS法を提案する。
(i)様々なグラフに適応できる単純な検索空間
(II)モンテカルロ木を用いた探索アルゴリズムにより決定過程を説明可能である。
検索空間とアルゴリズムの組み合わせにより,正確なGNNモデルと検索空間内の重要な機能を見つけることができる。
12グラフにおける4つの最先端グラフNAS法と比較して,ExGNASを総合的に評価した。
実験の結果,ExGNASは平均精度と効率が向上し,精度が26.1%向上し,実行時間が88%向上した。
さらに,質問紙によるユーザ調査とアーキテクチャ分析による説明可能性の有効性を示す。
関連論文リスト
- Towards Lightweight Graph Neural Network Search with Curriculum Graph Sparsification [48.334100429553644]
本稿では,有意義なグラフデータを通じて重要なサブアーキテクチャを識別する結合グラフデータとアーキテクチャ機構を設計することを提案する。
最適軽量グラフニューラルネット(GNN)を探索するために,グラフスペーシングとネットワーク・プルーニング(GASSIP)法を用いた軽量グラフニューラル・アーキテクチャ・サーチを提案する。
本手法は,探索したGNNとスペーサーグラフのモデルパラメータを半分以下にすることで,オンパーあるいはそれ以上高いノード分類性能を実現する。
論文 参考訳(メタデータ) (2024-06-24T06:53:37Z) - GraphPNAS: Learning Distribution of Good Neural Architectures via Deep
Graph Generative Models [48.57083463364353]
ランダムグラフモデル学習のレンズを用いて,ニューラルアーキテクチャサーチ(NAS)について検討する。
本稿では,優れたアーキテクチャの分布を学習するグラフ生成モデルGraphPNASを提案する。
提案するグラフジェネレータは,RNNベースよりも一貫して優れており,最先端のNAS手法よりも優れた,あるいは同等のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2022-11-28T09:09:06Z) - NAS-Bench-Graph: Benchmarking Graph Neural Architecture Search [55.75621026447599]
NAS-Bench-Graphは、GraphNASの統一的、再現可能、効率的な評価をサポートする調整されたベンチマークである。
具体的には,26,206のユニークなグラフニューラルネットワーク(GNN)アーキテクチャを網羅した,統一的で表現力のあるコンパクトな検索空間を構築する。
提案したベンチマークに基づいて,GNNアーキテクチャの性能を検索テーブルから直接取得できるが,それ以上の計算は行わない。
論文 参考訳(メタデータ) (2022-06-18T10:17:15Z) - Automatic Relation-aware Graph Network Proliferation [182.30735195376792]
GNNを効率的に検索するためのARGNP(Automatic Relation-Aware Graph Network Proliferation)を提案する。
これらの操作は階層的なノード/リレーショナル情報を抽出し、グラフ上のメッセージパッシングのための異方的ガイダンスを提供する。
4つのグラフ学習タスクのための6つのデータセットの実験により、我々の手法によって生成されたGNNは、現在最先端の手作りおよび検索に基づくGNNよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-05-31T10:38:04Z) - Edge-featured Graph Neural Architecture Search [131.4361207769865]
最適GNNアーキテクチャを見つけるために,エッジ機能付きグラフニューラルアーキテクチャ探索を提案する。
具体的には、高次表現を学習するためにリッチなエンティティとエッジの更新操作を設計する。
EGNASは、現在最先端の人間設計および検索されたGNNよりも高い性能で、より優れたGNNを検索できることを示す。
論文 参考訳(メタデータ) (2021-09-03T07:53:18Z) - Search to aggregate neighborhood for graph neural network [47.47628113034479]
そこで本研究では,データ固有のGNNアーキテクチャを自動的に設計するためのフレームワークとして,SANE(Search to Aggregate NEighborhood)を提案する。
新規で表現力のある検索空間を設計することにより,従来の強化学習法よりも効率的である微分可能な探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-04-14T03:15:19Z) - Rethinking Graph Neural Network Search from Message-passing [120.62373472087651]
本稿では,新しい検索空間を設計したグラフニューラルアーキテクチャサーチ(GNAS)を提案する。
グラフニューラルアーキテクチャパラダイム(GAP:Graph Neural Architecture Paradigm)をツリートポロジー計算手順と2種類の微粒原子操作で設計します。
実験では、GNASは複数のメッセージ通過機構と最適なメッセージ通過深さを持つより良いGNNを探索できることを示しています。
論文 参考訳(メタデータ) (2021-03-26T06:10:41Z) - Simplifying Architecture Search for Graph Neural Network [38.45540097927176]
本稿では,新しい探索空間と強化学習に基づく探索アルゴリズムからなるSNAGフレームワークを提案する。
実世界のデータセットを用いた実験は、人間設計のGNNやNAS手法と比較してSNAGフレームワークの有効性を示す。
論文 参考訳(メタデータ) (2020-08-26T16:24:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。