論文の概要: Manifold Filter-Combine Networks
- arxiv url: http://arxiv.org/abs/2307.04056v3
- Date: Tue, 5 Sep 2023 18:14:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 18:36:44.125557
- Title: Manifold Filter-Combine Networks
- Title(参考訳): 多様体フィルタ結合ネットワーク
- Authors: Joyce Chew and Edward De Brouwer and Smita Krishnaswamy and Deanna
Needell and Michael Perlmutter
- Abstract要約: マニフォールドフィルタ・コミンネットワーク(MFCN)と呼ばれる多様体ニューラルネットワーク(MNN)のクラスを導入する。
このクラスは、様々な人気のあるグラフニューラルネットワーク(GNN)の多様体アナログと考えることができる様々なサブクラスを含んでいる。
- 参考スコア(独自算出の注目度): 22.19399386945317
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a class of manifold neural networks (MNNs) that we call Manifold
Filter-Combine Networks (MFCNs), that aims to further our understanding of
MNNs, analogous to how the aggregate-combine framework helps with the
understanding of graph neural networks (GNNs). This class includes a wide
variety of subclasses that can be thought of as the manifold analog of various
popular GNNs. We then consider a method, based on building a data-driven graph,
for implementing such networks when one does not have global knowledge of the
manifold, but merely has access to finitely many sample points. We provide
sufficient conditions for the network to provably converge to its continuum
limit as the number of sample points tends to infinity. Unlike previous work
(which focused on specific graph constructions), our rate of convergence does
not directly depend on the number of filters used. Moreover, it exhibits linear
dependence on the depth of the network rather than the exponential dependence
obtained previously. Additionally, we provide several examples of interesting
subclasses of MFCNs and of the rates of convergence that are obtained under
specific graph constructions.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)の理解にどのように役立つかに類似した,MNNの理解を深めることを目的とした,MFCN(Manifold Filter-Combine Networks)と呼ばれる多様体ニューラルネットワークのクラスを紹介した。
このクラスは多種多様なサブクラスを含み、様々な人気のあるGNNの多様体類似と見なすことができる。
次に、そのようなネットワークを実装するためのデータ駆動グラフを構築する手法について、多様体の全体的知識を持たないが有限個のサンプル点へのアクセスしか持たない場合を考える。
サンプル点の数が無限になりがちであるため,ネットワークはその連続限界に確実に収束するのに十分な条件を与える。
特定のグラフ構成に焦点を当てた以前の作業とは異なり、我々の収束率は、使用するフィルタの数に直接依存しない。
さらに,従来得られた指数的依存よりもネットワークの深さに線形依存を示す。
さらに、MFCNの興味深い部分クラスと、特定のグラフ構造の下で得られる収束率のいくつかの例を示す。
関連論文リスト
- Convergence of Manifold Filter-Combine Networks [18.590886216749528]
多様体ニューラルネットワーク(MNN)をよりよく理解するために,Manifold Filter-Combine Networks (MFCNs)を導入する。
スパースグラフによる多様体の近似に依存する高次元点雲上でのMFCNの実装法を提案する。
我々は,データ点数が無限大になる傾向にあるため,この手法は極限に収束するという意味で一貫したものであることを証明した。
論文 参考訳(メタデータ) (2024-10-18T17:40:58Z) - Geometric Graph Filters and Neural Networks: Limit Properties and
Discriminability Trade-offs [122.06927400759021]
本稿では,グラフニューラルネットワーク (GNN) と多様体ニューラルネットワーク (MNN) の関係について検討する。
これらのグラフ上の畳み込みフィルタとニューラルネットワークが連続多様体上の畳み込みフィルタとニューラルネットワークに収束することを示す。
論文 参考訳(メタデータ) (2023-05-29T08:27:17Z) - A Convergence Rate for Manifold Neural Networks [6.428026202398116]
ラプラスベルトラミ作用素のスペクトル分解を用いた多様体ニューラルネットワークの構成法を提案する。
この結果に基づいて、多様体の内在次元に依存する収束率を確立する。
また,ネットワークの深さと各層で使用されるフィルタ数に依存する収束率についても論じる。
論文 参考訳(メタデータ) (2022-12-23T22:44:25Z) - MGNNI: Multiscale Graph Neural Networks with Implicit Layers [53.75421430520501]
暗黙グラフニューラルネットワーク(GNN)は、基礎となるグラフの長距離依存性をキャプチャするために提案されている。
暗黙的GNNの2つの弱点は、長距離依存を捉えるための限られた有効範囲による制約付き表現性と、複数の解像度でグラフ上のマルチスケール情報をキャプチャする能力の欠如である。
グラフ上のマルチスケール構造をモデル化できる暗黙の層(MGNNI)を持つマルチスケールグラフニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-15T18:18:55Z) - Convolutional Neural Networks on Manifolds: From Graphs and Back [122.06927400759021]
本稿では,多様体畳み込みフィルタと点次非線形性からなる多様体ニューラルネットワーク(MNN)を提案する。
要約すると、我々は大きなグラフの極限として多様体モデルに焦点を合わせ、MNNを構築するが、それでもMNNの離散化によってグラフニューラルネットワークを復活させることができる。
論文 参考訳(メタデータ) (2022-10-01T21:17:39Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Understanding the Basis of Graph Convolutional Neural Networks via an
Intuitive Matched Filtering Approach [7.826806223782053]
グラフ畳み込みニューラルネットワーク(GCNN)は不規則領域のデータ処理において好まれるモデルとなっている。
これらの畳み込み層は、選択したパターンと一致した入力データのフィルタリングを効果的に行うことを示す。
数値的な例は、GCNN操作の様々なステップをガイドし、視覚的にも数値的にも学習する。
論文 参考訳(メタデータ) (2021-08-23T12:41:06Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - Graph Neural Networks: Architectures, Stability and Transferability [176.3960927323358]
グラフニューラルネットワーク(GNN)は、グラフでサポートされている信号のための情報処理アーキテクチャである。
これらは、個々の層がグラフ畳み込みフィルタのバンクを含む畳み込みニューラルネットワーク(CNN)の一般化である。
論文 参考訳(メタデータ) (2020-08-04T18:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。