論文の概要: Neural Architecture Search in Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2008.00077v1
- Date: Fri, 31 Jul 2020 21:04:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 05:45:10.706558
- Title: Neural Architecture Search in Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークにおけるニューラルアーキテクチャ探索
- Authors: Matheus Nunes and Gisele L. Pappa
- Abstract要約: 本稿では,グラフニューラルネットワーク(GNN)の最適化のための2つのNAS手法を比較する。
その結果、2つの探索空間上の7つのデータセットについて検討し、どちらの手法もランダムな探索に類似した精度が得られることを示した。
- 参考スコア(独自算出の注目度): 1.2881413375147996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Performing analytical tasks over graph data has become increasingly
interesting due to the ubiquity and large availability of relational
information. However, unlike images or sentences, there is no notion of
sequence in networks. Nodes (and edges) follow no absolute order, and it is
hard for traditional machine learning (ML) algorithms to recognize a pattern
and generalize their predictions on this type of data. Graph Neural Networks
(GNN) successfully tackled this problem. They became popular after the
generalization of the convolution concept to the graph domain. However, they
possess a large number of hyperparameters and their design and optimization is
currently hand-made, based on heuristics or empirical intuition. Neural
Architecture Search (NAS) methods appear as an interesting solution to this
problem. In this direction, this paper compares two NAS methods for optimizing
GNN: one based on reinforcement learning and a second based on evolutionary
algorithms. Results consider 7 datasets over two search spaces and show that
both methods obtain similar accuracies to a random search, raising the question
of how many of the search space dimensions are actually relevant to the
problem.
- Abstract(参考訳): グラフデータに対する解析的タスクの実行は、リレーショナル情報の多様さと高可用性のため、ますます興味深いものになりつつある。
しかし、画像や文とは異なり、ネットワークにはシーケンスの概念はない。
ノード(とエッジ)は絶対的な順序に従わず、従来の機械学習(ML)アルゴリズムがパターンを認識して、この種のデータに基づいて予測を一般化することは難しい。
グラフニューラルネットワーク(GNN)はこの問題にうまく対処した。
これらは畳み込みの概念をグラフドメインに一般化した後に人気になった。
しかし、それらは多くのハイパーパラメータを持ち、その設計と最適化は現在、ヒューリスティックスや経験的直観に基づく手作りである。
neural architecture search (nas)メソッドは、この問題に対する興味深い解決策である。
本稿では,強化学習に基づく2つのnas法と,進化的アルゴリズムに基づく2つのnas法を比較した。
その結果、2つの探索空間上の7つのデータセットを考察し、どちらの方法もランダムな探索と類似の精度を持つことを示し、探索空間の次元が実際に問題と関係しているかどうかという疑問を提起した。
関連論文リスト
- Towards Better Out-of-Distribution Generalization of Neural Algorithmic
Reasoning Tasks [51.8723187709964]
ニューラルネットワーク推論タスクのOOD一般化について検討する。
目標は、ディープニューラルネットワークを使用して入出力ペアからアルゴリズムを学ぶことである。
論文 参考訳(メタデータ) (2022-11-01T18:33:20Z) - Invertible Neural Networks for Graph Prediction [22.140275054568985]
本研究では,ディープ・インバーチブル・ニューラルネットワークを用いた条件生成について述べる。
私たちの目標は,前処理と後処理の予測と生成を同時に行うことにあるので,エンドツーエンドのトレーニングアプローチを採用しています。
論文 参考訳(メタデータ) (2022-06-02T17:28:33Z) - Automatic Relation-aware Graph Network Proliferation [182.30735195376792]
GNNを効率的に検索するためのARGNP(Automatic Relation-Aware Graph Network Proliferation)を提案する。
これらの操作は階層的なノード/リレーショナル情報を抽出し、グラフ上のメッセージパッシングのための異方的ガイダンスを提供する。
4つのグラフ学習タスクのための6つのデータセットの実験により、我々の手法によって生成されたGNNは、現在最先端の手作りおよび検索に基づくGNNよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-05-31T10:38:04Z) - Rethinking Graph Neural Network Search from Message-passing [120.62373472087651]
本稿では,新しい検索空間を設計したグラフニューラルアーキテクチャサーチ(GNAS)を提案する。
グラフニューラルアーキテクチャパラダイム(GAP:Graph Neural Architecture Paradigm)をツリートポロジー計算手順と2種類の微粒原子操作で設計します。
実験では、GNASは複数のメッセージ通過機構と最適なメッセージ通過深さを持つより良いGNNを探索できることを示しています。
論文 参考訳(メタデータ) (2021-03-26T06:10:41Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Scaling Graph Neural Networks with Approximate PageRank [64.92311737049054]
GNNにおける情報拡散の効率的な近似を利用したPPRGoモデルを提案する。
高速であることに加えて、PPRGoは本質的にスケーラブルであり、業界設定で見られるような大規模なデータセットに対して、自明に並列化することができる。
このグラフのすべてのノードに対するPPRGoのトレーニングとラベルの予測には1台のマシンで2分未満で、同じグラフ上の他のベースラインをはるかに上回ります。
論文 参考訳(メタデータ) (2020-07-03T09:30:07Z) - Neural Bipartite Matching [19.600193617583955]
本稿では,ニューラルネットワークが複雑なアルゴリズムに適用される方法について述べる。
単一のGNNから生成された機能のみに基づいて、ニューラル実行によって実現される。
評価の結果,ネットワークがほぼ100%の時間で最適なマッチングを達成できることが示唆された。
論文 参考訳(メタデータ) (2020-05-22T17:50:38Z) - Which way? Direction-Aware Attributed Graph Embedding [2.429993132301275]
グラフ埋め込みアルゴリズムは連続ベクトル空間内のグラフを効率的に表現するために用いられる。
しばしば見落とされがちな側面の1つは、グラフが向き付けられたかどうかである。
本研究は,DIAGRAMという,テキストに富んだ方向認識アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-01-30T13:08:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。