論文の概要: Multiscale Hodge Scattering Networks for Data Analysis
- arxiv url: http://arxiv.org/abs/2311.10270v2
- Date: Fri, 22 Mar 2024 00:08:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 22:30:18.465995
- Title: Multiscale Hodge Scattering Networks for Data Analysis
- Title(参考訳): データ解析のためのマルチスケールホッジ散乱ネットワーク
- Authors: Naoki Saito, Stefan C. Schonsheck, Eugene Shvarts,
- Abstract要約: 我々は,simplicial Complex上で測定された信号に対する新しい散乱ネットワークを提案し,これをemphMultiscale Hodge Scattering Networks (MHSNs)と呼ぶ。
我々の構成は、単純複体上の多スケール基底辞書、すなわち $kappa$-GHWT と $kappa$-HGLET に基づいている。
- 参考スコア(独自算出の注目度): 0.5243460995467895
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose new scattering networks for signals measured on simplicial complexes, which we call \emph{Multiscale Hodge Scattering Networks} (MHSNs). Our construction is based on multiscale basis dictionaries on simplicial complexes, i.e., the $\kappa$-GHWT and $\kappa$-HGLET, which we recently developed for simplices of dimension $\kappa \in \mathbb{N}$ in a given simplicial complex by generalizing the node-based Generalized Haar-Walsh Transform (GHWT) and Hierarchical Graph Laplacian Eigen Transform (HGLET). The $\kappa$-GHWT and the $\kappa$-HGLET both form redundant sets (i.e., dictionaries) of multiscale basis vectors and the corresponding expansion coefficients of a given signal. Our MHSNs use a layered structure analogous to a convolutional neural network (CNN) to cascade the moments of the modulus of the dictionary coefficients. The resulting features are invariant to reordering of the simplices (i.e., node permutation of the underlying graphs). Importantly, the use of multiscale basis dictionaries in our MHSNs admits a natural pooling operation that is akin to local pooling in CNNs, and which may be performed either locally or per-scale. These pooling operations are harder to define in both traditional scattering networks based on Morlet wavelets, and geometric scattering networks based on Diffusion Wavelets. As a result, we are able to extract a rich set of descriptive yet robust features that can be used along with very simple machine learning methods (i.e., logistic regression or support vector machines) to achieve high-accuracy classification systems with far fewer parameters to train than most modern graph neural networks. Finally, we demonstrate the usefulness of our MHSNs in three distinct types of problems: signal classification, domain (i.e., graph/simplex) classification, and molecular dynamics prediction.
- Abstract(参考訳): 単体錯体上で測定された信号に対する新しい散乱ネットワークを提案し,これを「MHSNs(Multiscale Hodge Scattering Networks)」と呼ぶ。
我々の構成は、ノードベース一般化Haar-Walsh変換 (GHWT) と階層グラフラプラシアン固有変換 (HGLET) を一般化することにより、与えられた単純複体における次元$\kappa \in \mathbb{N}$ の単純化のために最近開発した $\kappa$-GHWT と $\kappa$-HGLET の多スケール基底辞書に基づいている。
$\kappa$-GHWT と $\kappa$-HGLET は共に、多重スケール基底ベクトルの冗長集合(辞書)と、与えられた信号の対応する拡張係数を形成する。
我々のMHSNは、畳み込みニューラルネットワーク(CNN)に類似した階層構造を用いて、辞書係数の係数の係数のモーメントをカスケードする。
結果として得られる特徴は、単純化(すなわち、基礎となるグラフのノード置換)の並べ替えに不変である。
重要な点として,MHSN におけるマルチスケールベース辞書の使用は,CNN における局所プールと同様の自然なプール操作を認めており,ローカルあるいはスケール毎に実施することができる。
これらのプーリング操作は、モーレットウェーブレットに基づく従来の散乱ネットワークと拡散ウェーブレットに基づく幾何散乱ネットワークの両方で定義するのが困難である。
その結果、非常に単純な機械学習手法(ロジスティック回帰やサポートベクターマシンなど)とともに使用可能な、豊富な記述的かつ堅牢な特徴を抽出して、最新のグラフニューラルネットワークよりもトレーニングするパラメータがはるかに少ない高精度な分類システムを実現することができる。
最後に、信号分類、領域分類(グラフ/複合)、分子動力学予測の3つの異なる種類の問題において、MHSNの有用性を実証する。
関連論文リスト
- Advancing Graph Neural Networks with HL-HGAT: A Hodge-Laplacian and Attention Mechanism Approach for Heterogeneous Graph-Structured Data [4.757249417213973]
本研究は, ノード, エッジ, 三角形, および$k$-simplicesを包含する, グラフを単体複体として考えることによって, 新たな視点を導入する。
我々の貢献はHodge-Laplacian heterogeneous graph attention network (HL-HGAT) であり、$k$-simplicesで不均一な信号表現を学習するために設計されている。
論文 参考訳(メタデータ) (2024-03-11T13:04:21Z) - BLIS-Net: Classifying and Analyzing Signals on Graphs [20.345611294709244]
グラフニューラルネットワーク(GNN)は、ノード分類やグラフ分類といったタスクのための強力なツールとして登場した。
我々は以前に導入された幾何散乱変換に基づいて構築された新しいGNNであるBLIS-Net(Bi-Lipschitz Scattering Net)を紹介する。
BLIS-Netは,交通流とfMRIデータに基づいて,合成データと実世界のデータの両方において優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2023-10-26T17:03:14Z) - ReLU Neural Networks with Linear Layers are Biased Towards Single- and Multi-Index Models [9.96121040675476]
この原稿は、2層以上の深さのニューラルネットワークによって学習された関数の性質が予測にどのように影響するかを考察している。
我々のフレームワークは、すべて同じキャパシティを持つが表現コストが異なる、様々な深さのネットワーク群を考慮に入れている。
論文 参考訳(メタデータ) (2023-05-24T22:10:12Z) - Learnable Filters for Geometric Scattering Modules [64.03877398967282]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2022-08-15T22:30:07Z) - Simple and Efficient Heterogeneous Graph Neural Network [55.56564522532328]
不均一グラフニューラルネットワーク(HGNN)は、不均一グラフの豊富な構造的および意味的な情報をノード表現に埋め込む強力な能力を持つ。
既存のHGNNは、同種グラフ上のグラフニューラルネットワーク(GNN)から多くのメカニズム、特に注意機構と多層構造を継承する。
本稿では,これらのメカニズムを詳細に検討し,簡便かつ効率的なヘテロジニアスグラフニューラルネットワーク(SeHGNN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T10:01:46Z) - Dist2Cycle: A Simplicial Neural Network for Homology Localization [66.15805004725809]
単純複体は多方向順序関係を明示的にエンコードするグラフの高次元一般化と見なすことができる。
単体錯体の$k$-homological特徴によってパラメータ化された関数のグラフ畳み込みモデルを提案する。
論文 参考訳(メタデータ) (2021-10-28T14:59:41Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - Data-Driven Learning of Geometric Scattering Networks [74.3283600072357]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2020-10-06T01:20:27Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。