論文の概要: Capturing Graphs with Hypo-Elliptic Diffusions
- arxiv url: http://arxiv.org/abs/2205.14092v1
- Date: Fri, 27 May 2022 16:47:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-30 15:21:17.051855
- Title: Capturing Graphs with Hypo-Elliptic Diffusions
- Title(参考訳): 低楕円拡散によるグラフのキャプチャ
- Authors: Csaba Toth, Darrick Lee, Celia Hacker, Harald Oberhauser
- Abstract要約: ランダムウォークの分布はグラフラプラシアンを用いて定義された拡散方程式に従って進化することを示す。
この結果、テンソル値のグラフ作用素が新しくなり、これは下楕円グラフラプラシアン (Laplacian) と呼ばれる。
本手法は,長距離推論を必要とするデータセット上のグラフ変換器と競合するが,エッジ数では線形にしかスケールしないことを示す。
- 参考スコア(独自算出の注目度): 7.704064306361941
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional layers within graph neural networks operate by aggregating
information about local neighbourhood structures; one common way to encode such
substructures is through random walks. The distribution of these random walks
evolves according to a diffusion equation defined using the graph Laplacian. We
extend this approach by leveraging classic mathematical results about
hypo-elliptic diffusions. This results in a novel tensor-valued graph operator,
which we call the hypo-elliptic graph Laplacian. We provide theoretical
guarantees and efficient low-rank approximation algorithms. In particular, this
gives a structured approach to capture long-range dependencies on graphs that
is robust to pooling. Besides the attractive theoretical properties, our
experiments show that this method competes with graph transformers on datasets
requiring long-range reasoning but scales only linearly in the number of edges
as opposed to quadratically in nodes.
- Abstract(参考訳): グラフニューラルネットワーク内の畳み込み層は、局所的な近傍構造に関する情報を集約することで操作される。
これらのランダムウォークの分布はグラフラプラシアンを用いて定義される拡散方程式に従って進化する。
低楕円拡散に関する古典的な数学的結果を利用して、このアプローチを拡張する。
この結果、テンソル値のグラフ作用素が新しくなり、これは下楕円グラフラプラシアンと呼ばれる。
理論的保証と効率的な低ランク近似アルゴリズムを提供する。
特にこれは、プーリングにロバストなグラフの長距離依存性をキャプチャする構造化アプローチを提供する。
提案手法は, 長大な推論を必要とするデータセット上のグラフトランスフォーマーと競合するが, ノードの2次性とは対照的に, エッジ数で線形にしかスケールしないことを示す。
関連論文リスト
- Graph Generation via Spectral Diffusion [51.60814773299899]
本稿では,1)グラフラプラシア行列のスペクトル分解と2)拡散過程に基づく新しいグラフ生成モデルGRASPを提案する。
具体的には、固有ベクトルと固有値のサンプリングにデノナイジングモデルを用い、グラフラプラシアン行列と隣接行列を再構成する。
我々の置換不変モデルは各ノードの固有ベクトルに連結することでノードの特徴を扱える。
論文 参考訳(メタデータ) (2024-02-29T09:26:46Z) - Learning to Approximate Adaptive Kernel Convolution on Graphs [4.434835769977399]
本稿では,拡散カーネルのスケールによって特徴集約の範囲を制御できる拡散学習フレームワークを提案する。
本モデルは,最先端データセットの性能評価のためのノードワイズ分類のための様々な標準で検証されている。
グラフ分類のための実世界の脳ネットワークデータにも検証され、アルツハイマー分類の実用性を実証している。
論文 参考訳(メタデータ) (2024-01-22T10:57:11Z) - Advective Diffusion Transformers for Topological Generalization in Graph
Learning [69.2894350228753]
グラフ拡散方程式は、様々なグラフトポロジーの存在下で、どのように外挿して一般化するかを示す。
本稿では,新たなグラフエンコーダのバックボーンであるAdvective Diffusion Transformer (ADiT)を提案する。
論文 参考訳(メタデータ) (2023-10-10T08:40:47Z) - A Fractional Graph Laplacian Approach to Oversmoothing [15.795926248847026]
非直交グラフから有向グラフへのオーバースムーシングの概念を一般化する。
非局所力学を記述した分数グラフ Laplacian Neural ODE を提案する。
グラフのディリクレエネルギーの収束に関して、我々の方法はより柔軟である。
論文 参考訳(メタデータ) (2023-05-22T14:52:33Z) - Graphon Pooling for Reducing Dimensionality of Signals and Convolutional
Operators on Graphs [131.53471236405628]
グラフ空間における[0, 1]2の分割上のグラフとグラフ信号の誘導的グラフ表現を利用する3つの方法を提案する。
これらの低次元表現がグラフとグラフ信号の収束列を構成することを証明している。
我々は,層間次元減少比が大きい場合,グラノンプーリングは文献で提案した他の手法よりも有意に優れていることを観察した。
論文 参考訳(メタデータ) (2022-12-15T22:11:34Z) - DiGress: Discrete Denoising diffusion for graph generation [79.13904438217592]
DiGressは、分類ノードとエッジ属性を持つグラフを生成するための離散化拡散モデルである。
分子と非分子のデータセットで最先端のパフォーマンスを実現し、最大3倍の妥当性が向上する。
また、1.3Mの薬物様分子を含む大規模なGuacaMolデータセットにスケールする最初のモデルでもある。
論文 参考訳(メタデータ) (2022-09-29T12:55:03Z) - Neural Sheaf Diffusion: A Topological Perspective on Heterophily and
Oversmoothing in GNNs [16.88394293874848]
セルラーシーフ理論を用いて、グラフの基盤となる幾何学がGNNの性能と深く関連していることを示す。
一般化されたシーブの階層構造を考慮し、無限時間極限におけるクラスの線形分離を実現するための層拡散過程の能力がいかに拡大するかを考察する。
我々は, せん断が非自明な場合, 離散パラメトリック拡散過程はGNNよりもその挙動を制御できることを証明した。
論文 参考訳(メタデータ) (2022-02-09T17:25:02Z) - Block-Approximated Exponential Random Graphs [77.4792558024487]
指数乱グラフ(ERG)の分野における重要な課題は、大きなグラフ上の非自明なERGの適合である。
本稿では,非自明なERGに対する近似フレームワークを提案する。
我々の手法は、数百万のノードからなるスパースグラフにスケーラブルである。
論文 参考訳(メタデータ) (2020-02-14T11:42:16Z) - Understanding Graph Neural Networks with Generalized Geometric
Scattering Transforms [67.88675386638043]
散乱変換は、畳み込みニューラルネットワークのモデルとして機能する多層ウェーブレットベースのディープラーニングアーキテクチャである。
非対称ウェーブレットの非常に一般的なクラスに基づくグラフに対して、窓付きおよび非窓付き幾何散乱変換を導入する。
これらの非対称グラフ散乱変換は、対称グラフ散乱変換と多くの理論的保証を持つことを示す。
論文 参考訳(メタデータ) (2019-11-14T17:23:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。