論文の概要: Sign and Basis Invariant Networks for Spectral Graph Representation
Learning
- arxiv url: http://arxiv.org/abs/2202.13013v1
- Date: Fri, 25 Feb 2022 23:11:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 14:16:56.770673
- Title: Sign and Basis Invariant Networks for Spectral Graph Representation
Learning
- Title(参考訳): スペクトルグラフ表現学習のための符号・基底不変ネットワーク
- Authors: Derek Lim, Joshua Robinson, Lingxiao Zhao, Tess Smidt, Suvrit Sra,
Haggai Maron, Stefanie Jegelka
- Abstract要約: SignNetとBasisNetは、すべての必須対称性に不変な新しいニューラルアーキテクチャであり、したがって、原則化された方法で固有空間のコレクションを処理する。
我々のネットワークは理論的にはグラフ表現学習に強い -- 任意のスペクトルグラフ畳み込みを近似することができる。
実験により、スペクトルグラフフィルタの学習とグラフ位置エンコーディングの学習のためのネットワークの強みが示された。
- 参考スコア(独自算出の注目度): 75.18802152811539
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many machine learning tasks involve processing eigenvectors derived from
data. Especially valuable are Laplacian eigenvectors, which capture useful
structural information about graphs and other geometric objects. However,
ambiguities arise when computing eigenvectors: for each eigenvector $v$, the
sign flipped $-v$ is also an eigenvector. More generally, higher dimensional
eigenspaces contain infinitely many choices of basis eigenvectors. These
ambiguities make it a challenge to process eigenvectors and eigenspaces in a
consistent way. In this work we introduce SignNet and BasisNet -- new neural
architectures that are invariant to all requisite symmetries and hence process
collections of eigenspaces in a principled manner. Our networks are universal,
i.e., they can approximate any continuous function of eigenvectors with the
proper invariances. They are also theoretically strong for graph representation
learning -- they can approximate any spectral graph convolution, can compute
spectral invariants that go beyond message passing neural networks, and can
provably simulate previously proposed graph positional encodings. Experiments
show the strength of our networks for learning spectral graph filters and
learning graph positional encodings.
- Abstract(参考訳): 多くの機械学習タスクは、データから派生した固有ベクトルを処理する。
グラフやその他の幾何学的対象に関する有用な構造情報をキャプチャするラプラシア固有ベクトルが特に有用である。
しかし、固有ベクトルを計算すると曖昧さが生じる: 各固有ベクトル $v$ に対して、フリップされた$-v$ も固有ベクトルである。
より一般に、高次元固有空間は基底固有ベクトルの無限個の選択を含む。
これらの曖昧さは固有ベクトルと固有空間を一貫した方法で処理することを困難にしている。
In this work we introduce SignNet and BasisNet -- new neural architectures that are invariant to all requisite symmetries and hence process collections of eigenspaces in a principled manner. Our networks are universal, i.e., they can approximate any continuous function of eigenvectors with the proper invariances. They are also theoretically strong for graph representation learning -- they can approximate any spectral graph convolution, can compute spectral invariants that go beyond message passing neural networks, and can provably simulate previously proposed graph positional encodings.
スペクトルグラフフィルタとグラフ位置符号化の学習におけるネットワークの強みを示す実験を行った。
関連論文リスト
- Towards Stable, Globally Expressive Graph Representations with Laplacian Eigenvectors [29.055130767451036]
本稿では,ラプラシアン固有ベクトルを用いて,安定かつグローバルに表現可能なグラフ表現を生成する手法を提案する。
提案手法は, 数値的近接固有値を円滑に処理し, 摂動に対するロバスト性を向上する。
論文 参考訳(メタデータ) (2024-10-13T06:02:25Z) - Graph Generation via Spectral Diffusion [51.60814773299899]
本稿では,1)グラフラプラシア行列のスペクトル分解と2)拡散過程に基づく新しいグラフ生成モデルGRASPを提案する。
具体的には、固有ベクトルと固有値のサンプリングにデノナイジングモデルを用い、グラフラプラシアン行列と隣接行列を再構成する。
我々の置換不変モデルは各ノードの固有ベクトルに連結することでノードの特徴を扱える。
論文 参考訳(メタデータ) (2024-02-29T09:26:46Z) - Expressive Sign Equivariant Networks for Spectral Geometric Learning [47.71042325868781]
近年の研究では、固有ベクトルの構造と対称性を尊重する機械学習モデルの開発の有用性が示されている。
グラフにおけるリンク予測のための等変モデルの構築やノード位置符号化の学習といったタスクに対して,符号不変性は理論的に制限されていることを示す。
論文 参考訳(メタデータ) (2023-12-04T20:48:18Z) - On the Stability of Expressive Positional Encodings for Graphs [46.967035678550594]
ラプラシア固有ベクトルを位置符号化として使用することは、2つの根本的な課題に直面している。
SPE(Stable and Expressive Positional Generalizations)を紹介する。
SPEは(1)確率的に安定であり、(2)基底不変関数に対して普遍的に表現できる最初のアーキテクチャである。
論文 参考訳(メタデータ) (2023-10-04T04:48:55Z) - Graph Neural Networks with Learnable Structural and Positional
Representations [83.24058411666483]
任意のグラフの大きな問題は、ノードの標準位置情報の欠如である。
ノードの位置ノード(PE)を導入し、Transformerのように入力層に注入する。
両方のGNNクラスで学習可能なPEを考えると、分子データセットのパフォーマンスは2.87%から64.14%に向上する。
論文 参考訳(メタデータ) (2021-10-15T05:59:15Z) - Using Deep LSD to build operators in GANs latent space with meaning in
real space [0.0]
相関の欠如は、潜在空間多様体が理解し操作し易いことを示唆するからである。
生成モデルは、例えば、可変オートエンコーダ(VAE)やGAN(Generative Adversarial Network)といったディープラーニングで広く使われている。
論文 参考訳(メタデータ) (2021-02-09T21:05:20Z) - Learning Sparse Graph Laplacian with K Eigenvector Prior via Iterative
GLASSO and Projection [58.5350491065936]
グラフ Laplacian 行列 $L$ 上の構造的仮定を考える。
最初の$K$ eigenvectors of $L$は、例えばドメイン固有の基準に基づいて事前選択される。
本稿では,H_u+$$$$barC$で最も適切なグラフラプラシアン行列$L*を計算するために,効率的なハイブリッドグラフラッソ/投影アルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-10-25T18:12:50Z) - Eigendecomposition-Free Training of Deep Networks for Linear
Least-Square Problems [107.3868459697569]
我々は、ディープネットワークのトレーニングに固有分解のないアプローチを導入する。
この手法は固有分解の明示的な微分よりもはるかに堅牢であることを示す。
我々の手法は収束特性が良く、最先端の結果が得られます。
論文 参考訳(メタデータ) (2020-04-15T04:29:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。