論文の概要: P-tensors: a General Formalism for Constructing Higher Order Message
Passing Networks
- arxiv url: http://arxiv.org/abs/2306.10767v1
- Date: Mon, 19 Jun 2023 08:21:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 18:37:29.172609
- Title: P-tensors: a General Formalism for Constructing Higher Order Message
Passing Networks
- Title(参考訳): p-tensors:高次メッセージパッシングネットワーク構築のための一般的な形式
- Authors: Tianyi Sun, Andrew Hands, Risi Kondor
- Abstract要約: 高い階数グラフニューラルネットワークは、標準的なメッセージパッシングアルゴリズムよりも精度が高いことを示す。
これらの構造を置換同変テンソル(英語版)(permutation equivariant tensor, P-tensors)として定式化し、任意の位数同変P-テンソル間のすべての線型写像の基底を導出する。
- 参考スコア(独自算出の注目度): 5.257115841810258
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Several recent papers have recently shown that higher order graph neural
networks can achieve better accuracy than their standard message passing
counterparts, especially on highly structured graphs such as molecules. These
models typically work by considering higher order representations of subgraphs
contained within a given graph and then perform some linear maps between them.
We formalize these structures as permutation equivariant tensors, or P-tensors,
and derive a basis for all linear maps between arbitrary order equivariant
P-tensors. Experimentally, we demonstrate this paradigm achieves state of the
art performance on several benchmark datasets.
- Abstract(参考訳): 最近の論文では、高階グラフニューラルネットワークは、特に分子のような高度に構造化されたグラフ上で、標準的なメッセージパッシングよりも精度が高いことが示されている。
これらのモデルは通常、与えられたグラフに含まれる部分グラフの高次表現を考慮し、それらの間の線型写像を実行する。
これらの構造を置換同変テンソル(英語版)(permutation equivariant tensor, P-tensors)として定式化し、任意の位数同変P-テンソル間のすべての線型写像の基底を導出する。
実験により、このパラダイムは、いくつかのベンチマークデータセット上でのアートパフォーマンスの状態を実証する。
関連論文リスト
- Homomorphism Counts for Graph Neural Networks: All About That Basis [8.25219440625445]
我々は、よりきめ細かいアプローチを論じ、対象パターンの基底''にすべての構造の準同型数を含む。
これにより計算複雑性の面で追加のオーバーヘッドを発生させずに、より表現力のあるアーキテクチャが得られる。
論文 参考訳(メタデータ) (2024-02-13T16:57:06Z) - Sheaf Hypergraph Networks [10.785525697855498]
本稿では,従来のハイパーグラフに余分な構造を加える数学的構造であるハイパーグラフのセルシーブを紹介する。
文献中の既存のラプラシアンからインスピレーションを得て、我々は2つの独特なシェフハイパーグラフラプラシアンの定式化を開発した。
我々は、これらの層ハイパーグラフラプラシアンを用いて、層ハイパーグラフニューラルネットワークと層ハイパーグラフ畳み込みニューラルネットワークの2つのモデルのカテゴリを設計する。
論文 参考訳(メタデータ) (2023-09-29T10:25:43Z) - From Hypergraph Energy Functions to Hypergraph Neural Networks [94.88564151540459]
パラメータ化されたハイパーグラフ正規化エネルギー関数の表現型族を示す。
次に、これらのエネルギーの最小化がノード埋め込みとして効果的に機能することを実証する。
提案した双レベルハイパーグラフ最適化と既存のGNNアーキテクチャを共通的に用いている。
論文 参考訳(メタデータ) (2023-06-16T04:40:59Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - G-MSM: Unsupervised Multi-Shape Matching with Graph-based Affinity
Priors [52.646396621449]
G-MSMは、非剛体形状対応のための新しい教師なし学習手法である。
学習形態の集合に親和性グラフを自己教師型で構築する。
近年の形状対応ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2022-12-06T12:09:24Z) - Ordered Subgraph Aggregation Networks [19.18478955240166]
グラフ強化グラフニューラルネットワーク(GNN)が登場し、標準(メッセージパス)GNNの表現力を確実に向上させている。
本稿では, 理論的枠組みを導入し, サブグラフ強化GNNの表現性を拡張した。
部分グラフサイズの増加は常に表現力を高め、それらの制限をよりよく理解することを示します。
論文 参考訳(メタデータ) (2022-06-22T15:19:34Z) - Template based Graph Neural Network with Optimal Transport Distances [11.56532171513328]
現在のグラフニューラルネットワーク(GNN)アーキテクチャは、2つの重要なコンポーネントに依存している。
本稿では,学習可能なグラフテンプレートとの距離をグラフ表現のコアに配置する新しい視点を提案する。
この距離埋め込みは、Fused Gromov-Wasserstein (FGW) 距離という最適な輸送距離によって構築される。
論文 参考訳(メタデータ) (2022-05-31T12:24:01Z) - Simple Graph Convolutional Networks [72.92604941595019]
単一層グラフ畳み込みネットワークで実装可能な単純なグラフ畳み込み演算子を提案する。
我々の畳み込み演算子は、文献における多くの提案よりも理論的に基礎を置いており、検討されたベンチマークデータセットに最先端の予測性能を示す。
論文 参考訳(メタデータ) (2021-06-10T15:23:59Z) - Learning over Families of Sets -- Hypergraph Representation Learning for
Higher Order Tasks [12.28143554382742]
可変サイズのハイパーエッジの表現を実証的に表現するためのハイパーグラフニューラルネットワークを開発した。
複数の実世界のハイパーグラフデータセットのパフォーマンスを評価し、最新モデルよりも一貫性のある大幅な精度向上を実証します。
論文 参考訳(メタデータ) (2021-01-19T18:37:50Z) - Building powerful and equivariant graph neural networks with structural
message-passing [74.93169425144755]
本稿では,2つのアイデアに基づいた,強力かつ同変なメッセージパッシングフレームワークを提案する。
まず、各ノードの周囲の局所的コンテキスト行列を学習するために、特徴に加えてノードの1ホット符号化を伝搬する。
次に,メッセージのパラメトリゼーション手法を提案する。
論文 参考訳(メタデータ) (2020-06-26T17:15:16Z) - Improving Graph Neural Network Expressivity via Subgraph Isomorphism
Counting [63.04999833264299]
グラフサブストラクチャネットワーク(GSN)は,サブストラクチャエンコーディングに基づくトポロジ的に認識可能なメッセージパッシング方式である。
Wesfeiler-Leman (WL) グラフ同型テストよりも厳密に表現可能であることを示す。
グラフ分類と回帰タスクについて広範囲に評価を行い、様々な実世界の環境において最先端の結果を得る。
論文 参考訳(メタデータ) (2020-06-16T15:30:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。