論文の概要: A Convergence Rate for Manifold Neural Networks
- arxiv url: http://arxiv.org/abs/2212.12606v2
- Date: Thu, 20 Jul 2023 18:58:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-24 16:27:26.410110
- Title: A Convergence Rate for Manifold Neural Networks
- Title(参考訳): マニフォールドニューラルネットワークの収束率
- Authors: Joyce Chew and Deanna Needell and Michael Perlmutter
- Abstract要約: ラプラスベルトラミ作用素のスペクトル分解を用いた多様体ニューラルネットワークの構成法を提案する。
この結果に基づいて、多様体の内在次元に依存する収束率を確立する。
また,ネットワークの深さと各層で使用されるフィルタ数に依存する収束率についても論じる。
- 参考スコア(独自算出の注目度): 6.428026202398116
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-dimensional data arises in numerous applications, and the rapidly
developing field of geometric deep learning seeks to develop neural network
architectures to analyze such data in non-Euclidean domains, such as graphs and
manifolds. Recent work by Z. Wang, L. Ruiz, and A. Ribeiro has introduced a
method for constructing manifold neural networks using the spectral
decomposition of the Laplace Beltrami operator. Moreover, in this work, the
authors provide a numerical scheme for implementing such neural networks when
the manifold is unknown and one only has access to finitely many sample points.
The authors show that this scheme, which relies upon building a data-driven
graph, converges to the continuum limit as the number of sample points tends to
infinity. Here, we build upon this result by establishing a rate of convergence
that depends on the intrinsic dimension of the manifold but is independent of
the ambient dimension. We also discuss how the rate of convergence depends on
the depth of the network and the number of filters used in each layer.
- Abstract(参考訳): 幾何深層学習の急速に発展する分野は、グラフや多様体のような非ユークリッド領域でそのようなデータを解析するためのニューラルネットワークアーキテクチャの開発を目指している。
Z. Wang, L. Ruiz, A. Ribeiroの最近の研究は、ラプラスベルトラミ作用素のスペクトル分解を用いて多様体ニューラルネットワークを構築する方法を紹介している。
さらに,本研究では,多様体が未知かつ有限個のサンプル点しかアクセスできない場合に,そのようなニューラルネットワークを実装するための数値スキームを提案する。
著者らは、データ駆動グラフの構築に依存するこのスキームは、標本点の数が無限になるにつれて連続限界に収束することを示した。
ここでは、多様体の内在次元に依存するが、周囲次元とは独立な収束率を確立することにより、この結果の上に構築する。
また,収束速度は,ネットワークの深さと各層で使用されるフィルタ数にどのように依存するかについても検討した。
関連論文リスト
- Riemannian Residual Neural Networks [58.925132597945634]
残余ニューラルネットワーク(ResNet)の拡張方法を示す。
ResNetは、機械学習において、有益な学習特性、優れた経験的結果、そして様々なニューラルネットワークを構築する際に容易に組み込める性質のために、ユビキタスになった。
論文 参考訳(メタデータ) (2023-10-16T02:12:32Z) - Manifold Filter-Combine Networks [22.19399386945317]
マニフォールドフィルタ・コミンネットワーク(MFCN)と呼ばれる多様体ニューラルネットワーク(MNN)のクラスを導入する。
このクラスは、様々な人気のあるグラフニューラルネットワーク(GNN)の多様体アナログと考えることができる様々なサブクラスを含んでいる。
論文 参考訳(メタデータ) (2023-07-08T23:19:53Z) - Geometric Graph Filters and Neural Networks: Limit Properties and
Discriminability Trade-offs [122.06927400759021]
本稿では,グラフニューラルネットワーク (GNN) と多様体ニューラルネットワーク (MNN) の関係について検討する。
これらのグラフ上の畳み込みフィルタとニューラルネットワークが連続多様体上の畳み込みフィルタとニューラルネットワークに収束することを示す。
論文 参考訳(メタデータ) (2023-05-29T08:27:17Z) - Predictions Based on Pixel Data: Insights from PDEs and Finite Differences [0.0]
本稿では,各観測が行列である時間列の近似を扱う。
比較的小さなネットワークでは、直線法に基づいて、PDEの数値的な離散化のクラスを正確に表現できることが示される。
我々のネットワークアーキテクチャは、典型的に時系列の近似に採用されているものから着想を得ている。
論文 参考訳(メタデータ) (2023-05-01T08:54:45Z) - Tangent Bundle Convolutional Learning: from Manifolds to Cellular Sheaves and Back [84.61160272624262]
この畳み込み操作に基づいて,タンジェントバンドルフィルタとタンジェントバンドルニューラルネットワーク(TNN)を定義する。
タンジェントバンドルフィルタは、スカラー多様体フィルタ、グラフフィルタ、標準畳み込みフィルタを連続的に一般化するスペクトル表現を許容する。
提案したアーキテクチャが様々な学習課題に与える影響を数値的に評価する。
論文 参考訳(メタデータ) (2023-03-20T17:57:15Z) - Effects of Data Geometry in Early Deep Learning [16.967930721746672]
ディープニューラルネットワークは、画像からグラフまで、さまざまなタイプのデータ上の関数を、基礎構造によって近似することができる。
ニューラルネットワークが線形関数として振る舞う領域にデータ多様体を分割する。
論文 参考訳(メタデータ) (2022-12-29T17:32:05Z) - Tangent Bundle Filters and Neural Networks: from Manifolds to Cellular
Sheaves and Back [114.01902073621577]
畳み込みを用いて、タンジェントバンドルフィルタとタンジェントバンドルニューラルネットワーク(TNN)を定義する。
我々は、TNNを時間領域と空間領域の両方で識別し、その離散性は、最近導入されたSheaf Neural Networksの原則的な変種であることを示す。
単体2次元球面上の接ベクトル場の復調作業における提案手法の有効性を数値的に評価する。
論文 参考訳(メタデータ) (2022-10-26T21:55:45Z) - Convolutional Neural Networks on Manifolds: From Graphs and Back [122.06927400759021]
本稿では,多様体畳み込みフィルタと点次非線形性からなる多様体ニューラルネットワーク(MNN)を提案する。
要約すると、我々は大きなグラフの極限として多様体モデルに焦点を合わせ、MNNを構築するが、それでもMNNの離散化によってグラフニューラルネットワークを復活させることができる。
論文 参考訳(メタデータ) (2022-10-01T21:17:39Z) - Geometric Scattering on Measure Spaces [12.0756034112778]
測度空間上での幾何散乱の一般統一モデルを導入する。
未知多様体をランダムにサンプリングして得られる有限測度空間を考える。
本稿では, 関連するグラフ散乱変換が基礎多様体上の散乱変換を近似するデータ駆動グラフを構築するための2つの方法を提案する。
論文 参考訳(メタデータ) (2022-08-17T22:40:09Z) - A Point-Cloud Deep Learning Framework for Prediction of Fluid Flow
Fields on Irregular Geometries [62.28265459308354]
ネットワークは空間位置とCFD量のエンドツーエンドマッピングを学習する。
断面形状の異なるシリンダーを過ぎる非圧縮層状定常流を考察する。
ネットワークは従来のCFDの数百倍の速さで流れ場を予測する。
論文 参考訳(メタデータ) (2020-10-15T12:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。