論文の概要: Understanding Graph Neural Networks with Generalized Geometric
Scattering Transforms
- arxiv url: http://arxiv.org/abs/1911.06253v5
- Date: Thu, 29 Jun 2023 01:28:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-30 10:25:50.940835
- Title: Understanding Graph Neural Networks with Generalized Geometric
Scattering Transforms
- Title(参考訳): 一般化幾何散乱変換によるグラフニューラルネットワークの理解
- Authors: Michael Perlmutter and Alexander Tong and Feng Gao and Guy Wolf and
Matthew Hirn
- Abstract要約: 散乱変換は、畳み込みニューラルネットワークのモデルとして機能する多層ウェーブレットベースのディープラーニングアーキテクチャである。
非対称ウェーブレットの非常に一般的なクラスに基づくグラフに対して、窓付きおよび非窓付き幾何散乱変換を導入する。
これらの非対称グラフ散乱変換は、対称グラフ散乱変換と多くの理論的保証を持つことを示す。
- 参考スコア(独自算出の注目度): 67.88675386638043
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The scattering transform is a multilayered wavelet-based deep learning
architecture that acts as a model of convolutional neural networks. Recently,
several works have introduced generalizations of the scattering transform for
non-Euclidean settings such as graphs. Our work builds upon these constructions
by introducing windowed and non-windowed geometric scattering transforms for
graphs based upon a very general class of asymmetric wavelets. We show that
these asymmetric graph scattering transforms have many of the same theoretical
guarantees as their symmetric counterparts. As a result, the proposed
construction unifies and extends known theoretical results for many of the
existing graph scattering architectures. In doing so, this work helps bridge
the gap between geometric scattering and other graph neural networks by
introducing a large family of networks with provable stability and invariance
guarantees. These results lay the groundwork for future deep learning
architectures for graph-structured data that have learned filters and also
provably have desirable theoretical properties.
- Abstract(参考訳): 散乱変換は、畳み込みニューラルネットワークのモデルとして機能する多層ウェーブレットベースのディープラーニングアーキテクチャである。
近年、グラフのような非ユークリッド的な設定に対する散乱変換の一般化がいくつか提案されている。
我々の研究は、非対称ウェーブレットの非常に一般的なクラスに基づくグラフに対して、窓付きおよび非窓型の幾何学的散乱変換を導入することで、これらの構成に基づいている。
これらの非対称グラフ散乱変換は、対称グラフ散乱変換と多くの理論的保証を持つことを示す。
その結果、提案手法は既存のグラフ散乱アーキテクチャの多くに対する既知の理論結果を統一し、拡張する。
この研究は、幾何学的散乱と他のグラフニューラルネットワークとのギャップを埋めるのに役立ち、証明可能な安定性と不変性を保証する大きなネットワーク群を導入する。
これらの結果は、フィルタを学習したグラフ構造化データのための将来のディープラーニングアーキテクチャの基礎となり、確実に望ましい理論的特性を持つ。
関連論文リスト
- HoloNets: Spectral Convolutions do extend to Directed Graphs [59.851175771106625]
従来の知恵は、スペクトル畳み込みネットワークは無向グラフ上にしか展開できないと規定している。
ここでは、このグラフフーリエ変換への伝統的な依存が超フルであることを示す。
本稿では,新たに開発されたフィルタの周波数応答解釈を行い,フィルタ表現に使用するベースの影響を調査し,ネットワークを基盤とする特性演算子との相互作用について議論する。
論文 参考訳(メタデータ) (2023-10-03T17:42:09Z) - Geometric Graph Filters and Neural Networks: Limit Properties and
Discriminability Trade-offs [122.06927400759021]
本稿では,グラフニューラルネットワーク (GNN) と多様体ニューラルネットワーク (MNN) の関係について検討する。
これらのグラフ上の畳み込みフィルタとニューラルネットワークが連続多様体上の畳み込みフィルタとニューラルネットワークに収束することを示す。
論文 参考訳(メタデータ) (2023-05-29T08:27:17Z) - Graph Scattering beyond Wavelet Shackles [3.2971341821314777]
この研究は、グラフ散乱ネットワークの設計と解析のための柔軟で数学的に健全なフレームワークを開発する。
グラフレベルの特徴アグリゲーションの新たな手法を導入し、結果として生じる複合散乱アーキテクチャの安定性を確立した。
論文 参考訳(メタデータ) (2023-01-26T23:02:38Z) - Geometric Scattering on Measure Spaces [12.0756034112778]
測度空間上での幾何散乱の一般統一モデルを導入する。
未知多様体をランダムにサンプリングして得られる有限測度空間を考える。
本稿では, 関連するグラフ散乱変換が基礎多様体上の散乱変換を近似するデータ駆動グラフを構築するための2つの方法を提案する。
論文 参考訳(メタデータ) (2022-08-17T22:40:09Z) - Learnable Filters for Geometric Scattering Modules [64.03877398967282]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2022-08-15T22:30:07Z) - Capturing Graphs with Hypo-Elliptic Diffusions [7.704064306361941]
ランダムウォークの分布はグラフラプラシアンを用いて定義された拡散方程式に従って進化することを示す。
この結果、テンソル値のグラフ作用素が新しくなり、これは下楕円グラフラプラシアン (Laplacian) と呼ばれる。
本手法は,長距離推論を必要とするデータセット上のグラフ変換器と競合するが,エッジ数では線形にしかスケールしないことを示す。
論文 参考訳(メタデータ) (2022-05-27T16:47:34Z) - Overcoming Oversmoothness in Graph Convolutional Networks via Hybrid
Scattering Networks [11.857894213975644]
本稿では,従来のGCNフィルタと幾何散乱変換を用いて定義された帯域通過フィルタを組み合わせたハイブリッドグラフニューラルネットワーク(GNN)フレームワークを提案する。
理論的には, グラフからの構造情報を活用するために散乱フィルタの相補的な利点が確立され, 実験では様々な学習課題における手法の利点が示された。
論文 参考訳(メタデータ) (2022-01-22T00:47:41Z) - Joint Network Topology Inference via Structured Fusion Regularization [70.30364652829164]
結合ネットワークトポロジ推論は、異種グラフ信号から複数のグラフラプラシア行列を学習する標準的な問題を表す。
新規な構造化融合正規化に基づく一般グラフ推定器を提案する。
提案するグラフ推定器は高い計算効率と厳密な理論保証の両方を享受できることを示す。
論文 参考訳(メタデータ) (2021-03-05T04:42:32Z) - Data-Driven Learning of Geometric Scattering Networks [74.3283600072357]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2020-10-06T01:20:27Z) - Geometric Wavelet Scattering Networks on Compact Riemannian Manifolds [9.341436585977913]
ユークリッド散乱変換と同様に、幾何学的散乱変換はウェーブレットフィルタのカスケードとポイントワイド非線形性に基づいている。
経験的結果は幾何的学習課題にその有用性を示す。
論文 参考訳(メタデータ) (2019-05-24T21:19:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。