論文の概要: Agent-based Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2206.11010v1
- Date: Wed, 22 Jun 2022 12:15:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-23 22:13:17.919211
- Title: Agent-based Graph Neural Networks
- Title(参考訳): エージェントベースグラフニューラルネットワーク
- Authors: Karolis Martinkus, P\'al Andr\'as Papp, Benedikt Schesch, Roger
Wattenhofer
- Abstract要約: 我々はエージェントネットと呼ぶ新しいグラフニューラルネットワークを提案する。
AgentNetでは、訓練されたテキスト処理エージェントがインテリジェントにグラフをウォーキングし、アウトプットをまとめて決定する。
エージェントは近隣を体系的に探索し,エージェントネットは3WLで識別できない構造を区別できることを示す。
- 参考スコア(独自算出の注目度): 9.615742794292943
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a novel graph neural network we call AgentNet, which is designed
specifically for graph-level tasks. AgentNet is inspired by sublinear
algorithms, featuring a computational complexity that is independent of the
graph size. The architecture of AgentNet differs fundamentally from the
architectures of known graph neural networks. In AgentNet, some trained
\textit{neural agents} intelligently walk the graph, and then collectively
decide on the output. We provide an extensive theoretical analysis of AgentNet:
We show that the agents can learn to systematically explore their neighborhood
and that AgentNet can distinguish some structures that are even
indistinguishable by 3-WL. Moreover, AgentNet is able to separate any two
graphs which are sufficiently different in terms of subgraphs. We confirm these
theoretical results with synthetic experiments on hard-to-distinguish graphs
and real-world graph classification tasks. In both cases, we compare favorably
not only to standard GNNs but also to computationally more expensive GNN
extensions.
- Abstract(参考訳): 本論文では,グラフレベルのタスク専用に設計されたエージェントネットと呼ばれる新しいグラフニューラルネットワークを提案する。
AgentNetはサブ線形アルゴリズムにインスパイアされ、グラフサイズに依存しない計算複雑性を特徴とする。
AgentNetのアーキテクチャは、既知のグラフニューラルネットワークのアーキテクチャと根本的に異なる。
agentnetでは、トレーニングされた \textit{neural agents} がインテリジェントにグラフを歩き、その結果をまとめて決定する。
我々はエージェントネットの広範な理論的解析を行い,エージェントネットが3-wlで識別不能な構造を識別できることを示した。
さらに agentnet は、サブグラフの観点で十分異なる2つのグラフを分離することができる。
実世界のグラフ分類タスクと難解グラフの合成実験により,これらの理論結果を確認した。
どちらの場合も、標準のGNNだけでなく、計算上より高価なGNN拡張も好適に比較する。
関連論文リスト
- Transferability of Graph Neural Networks using Graphon and Sampling Theories [0.0]
グラフニューラルネットワーク(GNN)は、さまざまなドメインでグラフベースの情報を処理するための強力なツールとなっている。
GNNの望ましい特性は転送可能性であり、トレーニングされたネットワークは、その正確性を再トレーニングすることなく、異なるグラフから情報を交換することができる。
我々は,2層グラファイトニューラルネットワーク(WNN)アーキテクチャを明示することにより,GNNへのグラファイトの適用に寄与する。
論文 参考訳(メタデータ) (2023-07-25T02:11:41Z) - Automatic Relation-aware Graph Network Proliferation [182.30735195376792]
GNNを効率的に検索するためのARGNP(Automatic Relation-Aware Graph Network Proliferation)を提案する。
これらの操作は階層的なノード/リレーショナル情報を抽出し、グラフ上のメッセージパッシングのための異方的ガイダンスを提供する。
4つのグラフ学習タスクのための6つのデータセットの実験により、我々の手法によって生成されたGNNは、現在最先端の手作りおよび検索に基づくGNNよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-05-31T10:38:04Z) - ACE-HGNN: Adaptive Curvature Exploration Hyperbolic Graph Neural Network [72.16255675586089]
本稿では、入力グラフと下流タスクに基づいて最適な曲率を適応的に学習する適応曲率探索ハイパーボリックグラフニューラルネットワークACE-HGNNを提案する。
複数の実世界のグラフデータセットの実験は、競争性能と優れた一般化能力を備えたモデル品質において、顕著で一貫したパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2021-10-15T07:18:57Z) - Temporal Graph Network Embedding with Causal Anonymous Walks
Representations [54.05212871508062]
本稿では,時間グラフネットワークに基づく動的ネットワーク表現学習のための新しいアプローチを提案する。
評価のために、時間的ネットワーク埋め込みの評価のためのベンチマークパイプラインを提供する。
欧州の大手銀行が提供した実世界のダウンストリームグラフ機械学習タスクにおいて、我々のモデルの適用性と優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-19T15:39:52Z) - Rethinking Graph Neural Network Search from Message-passing [120.62373472087651]
本稿では,新しい検索空間を設計したグラフニューラルアーキテクチャサーチ(GNAS)を提案する。
グラフニューラルアーキテクチャパラダイム(GAP:Graph Neural Architecture Paradigm)をツリートポロジー計算手順と2種類の微粒原子操作で設計します。
実験では、GNASは複数のメッセージ通過機構と最適なメッセージ通過深さを持つより良いGNNを探索できることを示しています。
論文 参考訳(メタデータ) (2021-03-26T06:10:41Z) - Multi-grained Semantics-aware Graph Neural Networks [13.720544777078642]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力な技術である。
本研究では,ノードとグラフ表現を対話的に学習する統合モデルAdamGNNを提案する。
14の実世界のグラフデータセットに対する実験により、AdamGNNはノードとグラフの両方のタスクにおいて17の競合するモデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2020-10-01T07:52:06Z) - Hierarchical Message-Passing Graph Neural Networks [12.207978823927386]
本稿では,新しい階層型メッセージパッシンググラフニューラルネットワークフレームワークを提案する。
鍵となるアイデアは、フラットグラフ内のすべてのノードをマルチレベルなスーパーグラフに再編成する階層構造を生成することである。
階層型コミュニティ対応グラフニューラルネットワーク(HC-GNN)と呼ばれる,このフレームワークを実装した最初のモデルを提案する。
論文 参考訳(メタデータ) (2020-09-08T13:11:07Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - MathNet: Haar-Like Wavelet Multiresolution-Analysis for Graph
Representation and Learning [31.42901131602713]
本稿では,マルチレゾリューション・ハール型ウェーブレット(MathNet)を用いたグラフニューラルネットワークのためのフレームワークを提案する。
提案したMathNetは、特にデータセットにおいて、既存のGNNモデルよりも優れている。
論文 参考訳(メタデータ) (2020-07-22T05:00:59Z) - Scaling Graph Neural Networks with Approximate PageRank [64.92311737049054]
GNNにおける情報拡散の効率的な近似を利用したPPRGoモデルを提案する。
高速であることに加えて、PPRGoは本質的にスケーラブルであり、業界設定で見られるような大規模なデータセットに対して、自明に並列化することができる。
このグラフのすべてのノードに対するPPRGoのトレーニングとラベルの予測には1台のマシンで2分未満で、同じグラフ上の他のベースラインをはるかに上回ります。
論文 参考訳(メタデータ) (2020-07-03T09:30:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。