論文の概要: Manifold Filter-Combine Networks
- arxiv url: http://arxiv.org/abs/2307.04056v1
- Date: Sat, 8 Jul 2023 23:19:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 15:38:09.470823
- Title: Manifold Filter-Combine Networks
- Title(参考訳): 多様体フィルタ結合ネットワーク
- Authors: Joyce Chew and Edward De Brouwer and Smita Krishnaswamy and Deanna
Needell and Michael Perlmutter
- Abstract要約: マニフォールドフィルタ・コミンネットワーク(Manifold Filter-Combine Networks)と呼ばれる多様体ニューラルネットワーク(MNN)のクラスを導入する。
本稿では,データ駆動型グラフの構築に基づく,多様体のグローバルな知識がない場合に,そのようなネットワークを実装する手法を検討する。
我々は、サンプル点の数が無限大になる傾向があるため、ネットワークがその連続極限に確実に収束する十分な条件を提供する。
- 参考スコア(独自算出の注目度): 13.156027959907327
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a large class of manifold neural networks (MNNs) which we call
Manifold Filter-Combine Networks. This class includes as special cases, the
MNNs considered in previous work by Wang, Ruiz, and Ribeiro, the manifold
scattering transform (a wavelet-based model of neural networks), and other
interesting examples not previously considered in the literature such as the
manifold equivalent of Kipf and Welling's graph convolutional network. We then
consider a method, based on building a data-driven graph, for implementing such
networks when one does not have global knowledge of the manifold, but merely
has access to finitely many sample points. We provide sufficient conditions for
the network to provably converge to its continuum limit as the number of sample
points tends to infinity. Unlike previous work (which focused on specific MNN
architectures and graph constructions), our rate of convergence does not
explicitly depend on the number of filters used. Moreover, it exhibits linear
dependence on the depth of the network rather than the exponential dependence
obtained previously.
- Abstract(参考訳): 我々は,Manifold Filter-Combine Networksと呼ぶ,多種多様な多様体ニューラルネットワーク(MNN)を導入する。
このクラスには、Wang、Ruiz、Ribeiroによる以前の研究で考慮されたMNN、多様体散乱変換(ニューラルネットワークのウェーブレットモデル)、およびキップやウェリングのグラフ畳み込みネットワークと同等の多様体のような文献でこれまで考えられていなかった興味深い例が含まれる。
次に、そのようなネットワークを実装するためのデータ駆動グラフを構築する手法について、多様体の全体的知識を持たないが有限個のサンプル点へのアクセスしか持たない場合を考える。
サンプル点の数が無限になりがちであるため,ネットワークはその連続限界に確実に収束するのに十分な条件を与える。
従来の作業(特定のMNNアーキテクチャやグラフ構造に焦点を当てた)とは異なり、コンバージェンスの割合は、使用するフィルタの数に明示的に依存しない。
さらに,従来得られた指数的依存よりもネットワークの深さに線形依存を示す。
関連論文リスト
- Convergence of Manifold Filter-Combine Networks [18.590886216749528]
多様体ニューラルネットワーク(MNN)をよりよく理解するために,Manifold Filter-Combine Networks (MFCNs)を導入する。
スパースグラフによる多様体の近似に依存する高次元点雲上でのMFCNの実装法を提案する。
我々は,データ点数が無限大になる傾向にあるため,この手法は極限に収束するという意味で一貫したものであることを証明した。
論文 参考訳(メタデータ) (2024-10-18T17:40:58Z) - Geometric Graph Filters and Neural Networks: Limit Properties and
Discriminability Trade-offs [122.06927400759021]
本稿では,グラフニューラルネットワーク (GNN) と多様体ニューラルネットワーク (MNN) の関係について検討する。
これらのグラフ上の畳み込みフィルタとニューラルネットワークが連続多様体上の畳み込みフィルタとニューラルネットワークに収束することを示す。
論文 参考訳(メタデータ) (2023-05-29T08:27:17Z) - A Convergence Rate for Manifold Neural Networks [6.428026202398116]
ラプラスベルトラミ作用素のスペクトル分解を用いた多様体ニューラルネットワークの構成法を提案する。
この結果に基づいて、多様体の内在次元に依存する収束率を確立する。
また,ネットワークの深さと各層で使用されるフィルタ数に依存する収束率についても論じる。
論文 参考訳(メタデータ) (2022-12-23T22:44:25Z) - MGNNI: Multiscale Graph Neural Networks with Implicit Layers [53.75421430520501]
暗黙グラフニューラルネットワーク(GNN)は、基礎となるグラフの長距離依存性をキャプチャするために提案されている。
暗黙的GNNの2つの弱点は、長距離依存を捉えるための限られた有効範囲による制約付き表現性と、複数の解像度でグラフ上のマルチスケール情報をキャプチャする能力の欠如である。
グラフ上のマルチスケール構造をモデル化できる暗黙の層(MGNNI)を持つマルチスケールグラフニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-15T18:18:55Z) - Convolutional Neural Networks on Manifolds: From Graphs and Back [122.06927400759021]
本稿では,多様体畳み込みフィルタと点次非線形性からなる多様体ニューラルネットワーク(MNN)を提案する。
要約すると、我々は大きなグラフの極限として多様体モデルに焦点を合わせ、MNNを構築するが、それでもMNNの離散化によってグラフニューラルネットワークを復活させることができる。
論文 参考訳(メタデータ) (2022-10-01T21:17:39Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Understanding the Basis of Graph Convolutional Neural Networks via an
Intuitive Matched Filtering Approach [7.826806223782053]
グラフ畳み込みニューラルネットワーク(GCNN)は不規則領域のデータ処理において好まれるモデルとなっている。
これらの畳み込み層は、選択したパターンと一致した入力データのフィルタリングを効果的に行うことを示す。
数値的な例は、GCNN操作の様々なステップをガイドし、視覚的にも数値的にも学習する。
論文 参考訳(メタデータ) (2021-08-23T12:41:06Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - Graph Neural Networks: Architectures, Stability and Transferability [176.3960927323358]
グラフニューラルネットワーク(GNN)は、グラフでサポートされている信号のための情報処理アーキテクチャである。
これらは、個々の層がグラフ畳み込みフィルタのバンクを含む畳み込みニューラルネットワーク(CNN)の一般化である。
論文 参考訳(メタデータ) (2020-08-04T18:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。