論文の概要: Automatic Relation-aware Graph Network Proliferation
- arxiv url: http://arxiv.org/abs/2205.15678v1
- Date: Tue, 31 May 2022 10:38:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-01 12:31:33.326096
- Title: Automatic Relation-aware Graph Network Proliferation
- Title(参考訳): 自動関係認識グラフネットワークの増殖
- Authors: Shaofei Cai, Liang Li, Xinzhe Han, Jiebo Luo, Zheng-Jun Zha, Qingming
Huang
- Abstract要約: GNNを効率的に検索するためのARGNP(Automatic Relation-Aware Graph Network Proliferation)を提案する。
これらの操作は階層的なノード/リレーショナル情報を抽出し、グラフ上のメッセージパッシングのための異方的ガイダンスを提供する。
4つのグラフ学習タスクのための6つのデータセットの実験により、我々の手法によって生成されたGNNは、現在最先端の手作りおよび検索に基づくGNNよりも優れていることが示された。
- 参考スコア(独自算出の注目度): 182.30735195376792
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Graph neural architecture search has sparked much attention as Graph Neural
Networks (GNNs) have shown powerful reasoning capability in many relational
tasks. However, the currently used graph search space overemphasizes learning
node features and neglects mining hierarchical relational information.
Moreover, due to diverse mechanisms in the message passing, the graph search
space is much larger than that of CNNs. This hinders the straightforward
application of classical search strategies for exploring complicated graph
search space. We propose Automatic Relation-aware Graph Network Proliferation
(ARGNP) for efficiently searching GNNs with a relation-guided message passing
mechanism. Specifically, we first devise a novel dual relation-aware graph
search space that comprises both node and relation learning operations. These
operations can extract hierarchical node/relational information and provide
anisotropic guidance for message passing on a graph. Second, analogous to cell
proliferation, we design a network proliferation search paradigm to
progressively determine the GNN architectures by iteratively performing network
division and differentiation. The experiments on six datasets for four graph
learning tasks demonstrate that GNNs produced by our method are superior to the
current state-of-the-art hand-crafted and search-based GNNs. Codes are
available at https://github.com/phython96/ARGNP.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は多くのリレーショナルタスクにおいて強力な推論能力を示しているため、グラフニューラルネットワーク検索が注目を集めている。
しかし、現在使われているグラフ検索空間は、学習ノードの機能を強調し、階層的関係情報のマイニングを無視している。
さらに、メッセージパッシングの様々なメカニズムのため、グラフ検索空間はcnnのそれよりもはるかに大きい。
これは、複雑なグラフ探索空間を探索する古典的な探索戦略の直接的な応用を妨げる。
関係誘導型メッセージパッシング機構を用いて,GNNを効率的に検索するためのARGNP(Automatic Relation-Aware Graph Network Proliferation)を提案する。
具体的には、まずノードと関係学習操作の両方からなる、新しい二重関係認識グラフ探索空間を考案する。
これらの操作は、階層的なノード/リレーショナル情報を抽出し、グラフ上のメッセージパッシングの異方性ガイダンスを提供することができる。
第2に、細胞増殖に類似したネットワーク拡散探索パラダイムを設計し、ネットワーク分割と分化を反復的に行うことにより、GNNアーキテクチャを段階的に決定する。
4つのグラフ学習タスクのための6つのデータセットに対する実験により、我々の手法で作成したGNNは、現在最先端の手作りおよび検索に基づくGNNよりも優れていることが示された。
コードはhttps://github.com/phython96/argnpで入手できる。
関連論文リスト
- Subgraph Matching via Query-Conditioned Subgraph Matching Neural
Networks and Bi-Level Tree Search [33.9052190473029]
サブグラフマッチングは、グラフデータベース検索、バイオメディカル分析、ソーシャルグループ検索などにおける中核的な操作である。
本稿では,クエリと対象グラフのマッチング情報を動的に計算する,新しいエンコーダ・デコーダニューラルネットワークアーキテクチャを提案する。
5つの大きな実世界のターゲットグラフの実験により、N-BLSはサブグラフマッチング性能を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2022-07-21T04:47:21Z) - Discovering the Representation Bottleneck of Graph Neural Networks from
Multi-order Interactions [51.597480162777074]
グラフニューラルネットワーク(GNN)は、ノード機能を伝搬し、インタラクションを構築するためにメッセージパッシングパラダイムに依存している。
最近の研究は、異なるグラフ学習タスクはノード間の異なる範囲の相互作用を必要とすることを指摘している。
科学領域における2つの共通グラフ構築法、すなわち、emphK-nearest neighbor(KNN)グラフとemphfully-connected(FC)グラフについて検討する。
論文 参考訳(メタデータ) (2022-05-15T11:38:14Z) - Edge-featured Graph Neural Architecture Search [131.4361207769865]
最適GNNアーキテクチャを見つけるために,エッジ機能付きグラフニューラルアーキテクチャ探索を提案する。
具体的には、高次表現を学習するためにリッチなエンティティとエッジの更新操作を設計する。
EGNASは、現在最先端の人間設計および検索されたGNNよりも高い性能で、より優れたGNNを検索できることを示す。
論文 参考訳(メタデータ) (2021-09-03T07:53:18Z) - Rethinking Graph Neural Network Search from Message-passing [120.62373472087651]
本稿では,新しい検索空間を設計したグラフニューラルアーキテクチャサーチ(GNAS)を提案する。
グラフニューラルアーキテクチャパラダイム(GAP:Graph Neural Architecture Paradigm)をツリートポロジー計算手順と2種類の微粒原子操作で設計します。
実験では、GNASは複数のメッセージ通過機構と最適なメッセージ通過深さを持つより良いGNNを探索できることを示しています。
論文 参考訳(メタデータ) (2021-03-26T06:10:41Z) - Analyzing the Performance of Graph Neural Networks with Pipe Parallelism [2.269587850533721]
ノードやエッジの分類やリンクの予測といったタスクで大きな成功を収めたグラフニューラルネットワーク(GNN)に注目した。
グラフ技術の進歩には,大規模ネットワーク処理のための新たなアプローチが必要である。
私たちは、ディープラーニングコミュニティで成功したと知られている既存のツールとフレームワークを使用して、GNNを並列化する方法を研究します。
論文 参考訳(メタデータ) (2020-12-20T04:20:38Z) - Hierarchical Message-Passing Graph Neural Networks [12.207978823927386]
本稿では,新しい階層型メッセージパッシンググラフニューラルネットワークフレームワークを提案する。
鍵となるアイデアは、フラットグラフ内のすべてのノードをマルチレベルなスーパーグラフに再編成する階層構造を生成することである。
階層型コミュニティ対応グラフニューラルネットワーク(HC-GNN)と呼ばれる,このフレームワークを実装した最初のモデルを提案する。
論文 参考訳(メタデータ) (2020-09-08T13:11:07Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Graphs, Convolutions, and Neural Networks: From Graph Filters to Graph
Neural Networks [183.97265247061847]
我々はグラフ信号処理を活用してグラフニューラルネットワーク(GNN)の表現空間を特徴付ける。
GNNにおけるグラフ畳み込みフィルタの役割について議論し、そのようなフィルタで構築されたアーキテクチャは、置換同値の基本的な性質と位相変化に対する安定性を持つことを示す。
また,ロボット群に対するリコメンデータシステムや分散型コントローラの学習におけるGNNの利用について検討した。
論文 参考訳(メタデータ) (2020-03-08T13:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。