論文の概要: Invariant Layers for Graphs with Nodes of Different Types
- arxiv url: http://arxiv.org/abs/2302.13551v1
- Date: Mon, 27 Feb 2023 07:10:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 16:32:17.238307
- Title: Invariant Layers for Graphs with Nodes of Different Types
- Title(参考訳): 異なる種類のノードを持つグラフに対する不変層
- Authors: Dmitry Rybin, Ruoyu Sun, Zhi-Quan Luo
- Abstract要約: 入力置換に不変な線形層を実装することで、既存の手法よりも重要なノード間の相互作用を効果的に学習できることを示す。
この結果は、$n$ノードを持つグラフ上の関数近似が、最もよく知られた有界な$leq n(n-1)/2$よりも厳密な大きさのテンソル$leq n$で実現できることを示唆している。
- 参考スコア(独自算出の注目度): 27.530546740444077
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks that satisfy invariance with respect to input permutations
have been widely studied in machine learning literature. However, in many
applications, only a subset of all input permutations is of interest. For
heterogeneous graph data, one can focus on permutations that preserve node
types. We fully characterize linear layers invariant to such permutations. We
verify experimentally that implementing these layers in graph neural network
architectures allows learning important node interactions more effectively than
existing techniques. We show that the dimension of space of these layers is
given by a generalization of Bell numbers, extending the work (Maron et al.,
2019). We further narrow the invariant network design space by addressing a
question about the sizes of tensor layers necessary for function approximation
on graph data. Our findings suggest that function approximation on a graph with
$n$ nodes can be done with tensors of sizes $\leq n$, which is tighter than the
best-known bound $\leq n(n-1)/2$. For $d \times d$ image data with translation
symmetry, our methods give a tight upper bound $2d - 1$ (instead of $d^{4}$) on
sizes of invariant tensor generators via a surprising connection to Davenport
constants.
- Abstract(参考訳): 入力置換に関する不変性を満たすニューラルネットワークは、機械学習文学において広く研究されている。
しかし、多くのアプリケーションにおいて、全ての入力置換のサブセットのみが興味を持つ。
不均一グラフデータの場合、ノードの型を保存する置換にフォーカスできる。
このような置換に不変な線形層を完全に特徴づける。
これらの層をグラフニューラルネットワークアーキテクチャで実装することで、既存の技術よりも重要なノードインタラクションを効果的に学習できることを実験的に検証する。
これらの層の空間の次元はベル数の一般化によって与えられることを示し、その成果を拡張している(maron et al., 2019)。
さらに,グラフデータ上の関数近似に必要なテンソル層の大きさに関する問題に対処して,不変ネットワーク設計空間を狭める。
この結果は、$n$ノードを持つグラフ上の関数近似は、最もよく知られた有界な$\leq n(n-1)/2$よりも厳密な大きさのテンソル$\leq n$で実現できることを示唆している。
d \times d$ image data with translation symmetry については、davenport constants への驚くべき接続により、不変テンソル生成器のサイズに対して、2d - 1$ ($d^{4}$ の代わりに) という厳密な上限を与える。
関連論文リスト
- Scalable Graph Compressed Convolutions [68.85227170390864]
ユークリッド畳み込みのための入力グラフのキャリブレーションに置換を適用する微分可能手法を提案する。
グラフキャリブレーションに基づいて,階層型グラフ表現学習のための圧縮畳み込みネットワーク(CoCN)を提案する。
論文 参考訳(メタデータ) (2024-07-26T03:14:13Z) - On the Expressive Power of Sparse Geometric MPNNs [3.396731589928944]
幾何学グラフに対するメッセージパッシングニューラルネットワークの表現力について検討する。
非同型幾何グラフの一般的なペアは、メッセージパッシングネットワークによって分離可能であることを示す。
論文 参考訳(メタデータ) (2024-07-02T07:48:22Z) - Learning to Approximate Adaptive Kernel Convolution on Graphs [4.434835769977399]
本稿では,拡散カーネルのスケールによって特徴集約の範囲を制御できる拡散学習フレームワークを提案する。
本モデルは,最先端データセットの性能評価のためのノードワイズ分類のための様々な標準で検証されている。
グラフ分類のための実世界の脳ネットワークデータにも検証され、アルツハイマー分類の実用性を実証している。
論文 参考訳(メタデータ) (2024-01-22T10:57:11Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Node Embedding from Neural Hamiltonian Orbits in Graph Neural Networks [33.88288279902204]
本稿では、時間とともにハミルトニアン軌道としてノード特徴の埋め込み更新をモデル化する。
提案したノード埋め込み戦略は,任意のグラフデータセットの基盤となる幾何を広範にチューニングすることなく,自動的に学習することができる。
数値実験により,提案手法は,GNNを埋め込んだ最先端グラフノードよりも,グラフデータセットの種類が異なることが確認された。
論文 参考訳(メタデータ) (2023-05-30T11:53:40Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - Graph Neural Network Bandits [89.31889875864599]
グラフ構造データ上で定義された報酬関数を用いた帯域最適化問題を考察する。
この設定の主な課題は、大きなドメインへのスケーリングと、多くのノードを持つグラフへのスケーリングである。
グラフニューラルネットワーク(GNN)を用いて報酬関数を推定できることを示す。
論文 参考訳(メタデータ) (2022-07-13T18:12:36Z) - Neighbor2Seq: Deep Learning on Massive Graphs by Transforming Neighbors
to Sequences [55.329402218608365]
本研究では,各ノードの階層的近傍をシーケンスに変換するためにNeighbor2Seqを提案する。
1100万以上のノードと160億のエッジを持つ大規模グラフ上で,本手法の評価を行った。
その結果,提案手法は大規模グラフに対してスケーラブルであり,大規模グラフと中規模グラフにまたがる優れた性能を実現する。
論文 参考訳(メタデータ) (2022-02-07T16:38:36Z) - Graph Neural Networks with Learnable Structural and Positional
Representations [83.24058411666483]
任意のグラフの大きな問題は、ノードの標準位置情報の欠如である。
ノードの位置ノード(PE)を導入し、Transformerのように入力層に注入する。
両方のGNNクラスで学習可能なPEを考えると、分子データセットのパフォーマンスは2.87%から64.14%に向上する。
論文 参考訳(メタデータ) (2021-10-15T05:59:15Z) - RaWaNet: Enriching Graph Neural Network Input via Random Walks on Graphs [0.0]
グラフニューラルネットワーク(GNN)の人気が高まっており、グラフで表されるデータに対して非常に有望な結果を示している。
本稿では,3つの選択された長さに基づいて,グラフのランダムなウォークデータ処理を提案する。すなわち,グラフ上の局所的および大域的ダイナミクスを捉えるために,長さ1,2の(正規)ウォークと長さ0,1$の分節ウォークを提案する。
本手法は, 処理ノードの特徴をネットワークに渡すことによって, 様々な分子データセット上で検証し, 分類および回帰処理を行う。
論文 参考訳(メタデータ) (2021-09-15T20:04:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。