論文の概要: Edge-featured Graph Neural Architecture Search
- arxiv url: http://arxiv.org/abs/2109.01356v1
- Date: Fri, 3 Sep 2021 07:53:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-06 20:27:06.517389
- Title: Edge-featured Graph Neural Architecture Search
- Title(参考訳): エッジ機能付きグラフニューラルアーキテクチャ検索
- Authors: Shaofei Cai, Liang Li, Xinzhe Han, Zheng-jun Zha, Qingming Huang
- Abstract要約: 最適GNNアーキテクチャを見つけるために,エッジ機能付きグラフニューラルアーキテクチャ探索を提案する。
具体的には、高次表現を学習するためにリッチなエンティティとエッジの更新操作を設計する。
EGNASは、現在最先端の人間設計および検索されたGNNよりも高い性能で、より優れたGNNを検索できることを示す。
- 参考スコア(独自算出の注目度): 131.4361207769865
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Graph neural networks (GNNs) have been successfully applied to learning
representation on graphs in many relational tasks. Recently, researchers study
neural architecture search (NAS) to reduce the dependence of human expertise
and explore better GNN architectures, but they over-emphasize entity features
and ignore latent relation information concealed in the edges. To solve this
problem, we incorporate edge features into graph search space and propose
Edge-featured Graph Neural Architecture Search to find the optimal GNN
architecture. Specifically, we design rich entity and edge updating operations
to learn high-order representations, which convey more generic message passing
mechanisms. Moreover, the architecture topology in our search space allows to
explore complex feature dependence of both entities and edges, which can be
efficiently optimized by differentiable search strategy. Experiments at three
graph tasks on six datasets show EGNAS can search better GNNs with higher
performance than current state-of-the-art human-designed and searched-based
GNNs.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、多くのリレーショナルタスクにおけるグラフ表現の学習に成功している。
近年,人間の専門知識の依存度を下げ,より優れたGNNアーキテクチャを探求するために,ニューラルアーキテクチャサーチ(NAS)を研究している。
この問題を解決するために、エッジ機能をグラフ検索空間に組み込み、エッジ機能付きグラフニューラルネットワークサーチを提案し、最適GNNアーキテクチャを求める。
具体的には、より汎用的なメッセージパッシングメカニズムを提供する高階表現を学ぶために、リッチエンティティとエッジ更新操作を設計する。
さらに、検索空間におけるアーキテクチャトポロジーは、エンティティとエッジの両方の複雑な特徴依存性を探索することができ、微分可能な検索戦略によって効率的に最適化することができる。
6つのデータセット上の3つのグラフタスクの実験は、EGNASが現在の最先端の人間設計および検索ベースGNNよりも高いパフォーマンスで、より優れたGNNを検索できることを示している。
関連論文リスト
- Towards Lightweight Graph Neural Network Search with Curriculum Graph Sparsification [48.334100429553644]
本稿では,有意義なグラフデータを通じて重要なサブアーキテクチャを識別する結合グラフデータとアーキテクチャ機構を設計することを提案する。
最適軽量グラフニューラルネット(GNN)を探索するために,グラフスペーシングとネットワーク・プルーニング(GASSIP)法を用いた軽量グラフニューラル・アーキテクチャ・サーチを提案する。
本手法は,探索したGNNとスペーサーグラフのモデルパラメータを半分以下にすることで,オンパーあるいはそれ以上高いノード分類性能を実現する。
論文 参考訳(メタデータ) (2024-06-24T06:53:37Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - Efficient and Explainable Graph Neural Architecture Search via
Monte-Carlo Tree Search [5.076419064097733]
グラフニューラルネットワーク(GNN)は、さまざまな領域でデータサイエンスタスクを実行する強力なツールである。
人的労力と計算コストを削減するため、グラフニューラルアーキテクチャ探索(Graph NAS)が準最適GNNアーキテクチャの探索に使用されている。
本稿では, (i) 様々なグラフに適応可能な単純な探索空間と, (ii) 決定プロセスを説明可能な検索アルゴリズムからなるExGNASを提案する。
論文 参考訳(メタデータ) (2023-08-30T03:21:45Z) - Automatic Relation-aware Graph Network Proliferation [182.30735195376792]
GNNを効率的に検索するためのARGNP(Automatic Relation-Aware Graph Network Proliferation)を提案する。
これらの操作は階層的なノード/リレーショナル情報を抽出し、グラフ上のメッセージパッシングのための異方的ガイダンスを提供する。
4つのグラフ学習タスクのための6つのデータセットの実験により、我々の手法によって生成されたGNNは、現在最先端の手作りおよび検索に基づくGNNよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-05-31T10:38:04Z) - GraphPAS: Parallel Architecture Search for Graph Neural Networks [12.860313120881996]
グラフニューラルネットワークのための並列グラフアーキテクチャ探索(GraphPAS)フレームワークを提案する。
GraphPASでは、共有ベースの進化学習を設計することで、検索空間を並列に探索する。
実験結果から,GraphPASは最先端モデルの効率と精度を同時に向上することが示された。
論文 参考訳(メタデータ) (2021-12-07T02:55:24Z) - ACE-HGNN: Adaptive Curvature Exploration Hyperbolic Graph Neural Network [72.16255675586089]
本稿では、入力グラフと下流タスクに基づいて最適な曲率を適応的に学習する適応曲率探索ハイパーボリックグラフニューラルネットワークACE-HGNNを提案する。
複数の実世界のグラフデータセットの実験は、競争性能と優れた一般化能力を備えたモデル品質において、顕著で一貫したパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2021-10-15T07:18:57Z) - Rethinking Graph Neural Network Search from Message-passing [120.62373472087651]
本稿では,新しい検索空間を設計したグラフニューラルアーキテクチャサーチ(GNAS)を提案する。
グラフニューラルアーキテクチャパラダイム(GAP:Graph Neural Architecture Paradigm)をツリートポロジー計算手順と2種類の微粒原子操作で設計します。
実験では、GNASは複数のメッセージ通過機構と最適なメッセージ通過深さを持つより良いGNNを探索できることを示しています。
論文 参考訳(メタデータ) (2021-03-26T06:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。