論文の概要: Natural Graph Networks
- arxiv url: http://arxiv.org/abs/2007.08349v2
- Date: Mon, 23 Nov 2020 15:38:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 21:56:22.330475
- Title: Natural Graph Networks
- Title(参考訳): 自然グラフネットワーク
- Authors: Pim de Haan, Taco Cohen, Max Welling
- Abstract要約: より一般的な自然性の概念がグラフネットワークを適切に定義するのに十分であることを示す。
グローバルおよびローカルな自然グラフネットワークを定義し、後者は従来のメッセージパッシンググラフニューラルネットワークと同じくらいスケーラブルである。
- 参考スコア(独自算出の注目度): 80.77570956520482
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A key requirement for graph neural networks is that they must process a graph
in a way that does not depend on how the graph is described. Traditionally this
has been taken to mean that a graph network must be equivariant to node
permutations. Here we show that instead of equivariance, the more general
concept of naturality is sufficient for a graph network to be well-defined,
opening up a larger class of graph networks. We define global and local natural
graph networks, the latter of which are as scalable as conventional message
passing graph neural networks while being more flexible. We give one practical
instantiation of a natural network on graphs which uses an equivariant message
network parameterization, yielding good performance on several benchmarks.
- Abstract(参考訳): グラフニューラルネットワークの重要な要件は、グラフの記述方法に依存しない方法でグラフを処理しなければならないことである。
伝統的に、これはグラフネットワークがノードの置換に同値でなければならないことを意味する。
ここでは、等分散の代わりに、より一般的な自然性の概念はグラフネットワークが明確に定義され、より大きなグラフネットワークのクラスを開くのに十分であることを示す。
我々は、グローバルおよびローカルの自然グラフネットワークを定義し、後者は、より柔軟でありながら、従来のメッセージパッシンググラフニューラルネットワークと同じくらいスケーラブルである。
等価なメッセージネットワークパラメータ化を用いたグラフ上での自然ネットワークの実用的なインスタンス化により,複数のベンチマークで優れた性能が得られる。
関連論文リスト
- GNN-LoFI: a Novel Graph Neural Network through Localized Feature-based
Histogram Intersection [51.608147732998994]
グラフニューラルネットワークは、グラフベースの機械学習の選択フレームワークになりつつある。
本稿では,古典的メッセージパッシングに代えて,ノード特徴の局所分布を解析するグラフニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-01-17T13:04:23Z) - Saliency-Aware Regularized Graph Neural Network [39.82009838086267]
グラフ分類のためのSAR-GNN(Saliency-Aware Regularized Graph Neural Network)を提案する。
まず,コンパクトなグラフ表現とノード特徴とのセマンティックな類似性を測定することで,グローバルノードの正当性を推定する。
そして、学習した塩分濃度分布を利用して、背骨の近傍集合を規則化する。
論文 参考訳(メタデータ) (2024-01-01T13:44:16Z) - Sampling for network function learning [0.0]
ネットワーク機能学習におけるグラフサンプリング手法の可能性を検討する。
これは、エッジが始点不明であったり、グラフが大きすぎる(あるいは動的すぎる)と完全に処理できない場合に便利である。
論文 参考訳(メタデータ) (2022-09-11T11:22:34Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - SpeqNets: Sparsity-aware Permutation-equivariant Graph Networks [16.14454388348814]
我々は、普遍的、置換同変グラフネットワークのクラスを示す。
それらは表現性とスケーラビリティのきめ細かい制御を提供し、グラフの幅に適応する。
これらのアーキテクチャにより、標準的な高階グラフネットワークに比べて計算時間が大幅に短縮される。
論文 参考訳(メタデータ) (2022-03-25T21:17:09Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - BiGCN: A Bi-directional Low-Pass Filtering Graph Neural Network [35.97496022085212]
多くのグラフ畳み込みネットワークは、グラフ信号の低パスフィルタと見なすことができる。
本稿では,グラフニューラルネットワークを双方向低域通過フィルタとして表現する新しいモデルBiGCNを提案する。
私たちのモデルは、ほとんどのベンチマークデータセットのノード分類とリンク予測のタスクで、以前のグラフニューラルネットワークを上回っています。
論文 参考訳(メタデータ) (2021-01-14T09:41:00Z) - Graphs, Convolutions, and Neural Networks: From Graph Filters to Graph
Neural Networks [183.97265247061847]
我々はグラフ信号処理を活用してグラフニューラルネットワーク(GNN)の表現空間を特徴付ける。
GNNにおけるグラフ畳み込みフィルタの役割について議論し、そのようなフィルタで構築されたアーキテクチャは、置換同値の基本的な性質と位相変化に対する安定性を持つことを示す。
また,ロボット群に対するリコメンデータシステムや分散型コントローラの学習におけるGNNの利用について検討した。
論文 参考訳(メタデータ) (2020-03-08T13:02:15Z) - Analyzing Neural Networks Based on Random Graphs [77.34726150561087]
様々なタイプのランダムグラフに対応するアーキテクチャを用いて,ニューラルネットワークの大規模評価を行う。
古典的な数値グラフ不変量は、それ自体が最良のネットワークを選び出すことができない。
また、主に短距離接続を持つネットワークは、多くの長距離接続が可能なネットワークよりも性能が良いことも見出した。
論文 参考訳(メタデータ) (2020-02-19T11:04:49Z) - Theoretically Expressive and Edge-aware Graph Learning [24.954342094176013]
この分野における最近の進歩と組み合わせた新しいグラフニューラルネットワークを提案する。
我々は,このモデルがグラフ同型ネットワークやグラフニューラルネットワークよりも厳密に一般化されていることを証明した。
論文 参考訳(メタデータ) (2020-01-24T13:43:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。