論文の概要: Convolutional Neural Networks on Manifolds: From Graphs and Back
- arxiv url: http://arxiv.org/abs/2210.00376v1
- Date: Sat, 1 Oct 2022 21:17:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 17:31:14.619210
- Title: Convolutional Neural Networks on Manifolds: From Graphs and Back
- Title(参考訳): マニフォールド上の畳み込みニューラルネットワーク:グラフとバックから
- Authors: Zhiyang Wang and Luana Ruiz and Alejandro Ribeiro
- Abstract要約: 本稿では,多様体畳み込みフィルタと点次非線形性からなる多様体ニューラルネットワーク(MNN)を提案する。
要約すると、我々は大きなグラフの極限として多様体モデルに焦点を合わせ、MNNを構築するが、それでもMNNの離散化によってグラフニューラルネットワークを復活させることができる。
- 参考スコア(独自算出の注目度): 122.06927400759021
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Geometric deep learning has gained much attention in recent years due to more
available data acquired from non-Euclidean domains. Some examples include point
clouds for 3D models and wireless sensor networks in communications. Graphs are
common models to connect these discrete data points and capture the underlying
geometric structure. With the large amount of these geometric data, graphs with
arbitrarily large size tend to converge to a limit model -- the manifold. Deep
neural network architectures have been proved as a powerful technique to solve
problems based on these data residing on the manifold. In this paper, we
propose a manifold neural network (MNN) composed of a bank of manifold
convolutional filters and point-wise nonlinearities. We define a manifold
convolution operation which is consistent with the discrete graph convolution
by discretizing in both space and time domains. To sum up, we focus on the
manifold model as the limit of large graphs and construct MNNs, while we can
still bring back graph neural networks by the discretization of MNNs. We carry
out experiments based on point-cloud dataset to showcase the performance of our
proposed MNNs.
- Abstract(参考訳): 幾何学的深層学習は、非ユークリッド領域から取得したより多くのデータによって近年注目を集めている。
例えば、3Dモデルのためのポイントクラウドや通信における無線センサーネットワークなどがある。
グラフはこれらの離散データポイントを接続し、基礎となる幾何学的構造をキャプチャする一般的なモデルである。
これらの幾何的データの量が多ければ、任意の大きさのグラフは極限モデル(多様体)に収束する傾向にある。
ディープニューラルネットワークアーキテクチャは、多様体上のこれらのデータに基づいて問題を解決するための強力な手法として証明されている。
本稿では,多様体畳み込みフィルタのバンクと点方向非線形性からなる多様体ニューラルネットワーク(mnn)を提案する。
空間領域と時間領域の両方で離散化することで離散グラフ畳み込みと一致する多様体畳み込み演算を定義する。
要約すると、我々は大きなグラフの極限として多様体モデルに焦点を合わせ、MNNを構築するが、それでもMNNの離散化によってグラフニューラルネットワークを復活させることができる。
提案するMNNの性能を示すために,ポイントクラウドデータセットに基づく実験を行った。
関連論文リスト
- A Theoretical Study of Neural Network Expressive Power via Manifold Topology [9.054396245059555]
実世界のデータに関する一般的な仮定は、それが低次元多様体の上または近くにあるということである。
本研究では,潜在データ多様体のネットワーク表現力について検討する。
本稿では,ReLUニューラルネットワークのサイズ上限について述べる。
論文 参考訳(メタデータ) (2024-10-21T22:10:24Z) - Generalization of Geometric Graph Neural Networks [84.01980526069075]
幾何グラフニューラルネットワーク(GNN)の一般化能力について検討する。
我々は,このGNNの最適経験リスクと最適統計リスクとの一般化ギャップを証明した。
最も重要な観察は、前の結果のようにグラフのサイズに制限されるのではなく、1つの大きなグラフで一般化能力を実現することができることである。
論文 参考訳(メタデータ) (2024-09-08T18:55:57Z) - Generalization of Graph Neural Networks is Robust to Model Mismatch [84.01980526069075]
グラフニューラルネットワーク(GNN)は、その一般化能力によってサポートされている様々なタスクにおいて、その効果を実証している。
本稿では,多様体モデルから生成される幾何グラフで動作するGNNについて検討する。
本稿では,そのようなモデルミスマッチの存在下でのGNN一般化の堅牢性を明らかにする。
論文 参考訳(メタデータ) (2024-08-25T16:00:44Z) - Manifold Filter-Combine Networks [22.19399386945317]
マニフォールドフィルタ・コミンネットワーク(MFCN)と呼ばれる多様体ニューラルネットワーク(MNN)のクラスを導入する。
このクラスは、様々な人気のあるグラフニューラルネットワーク(GNN)の多様体アナログと考えることができる様々なサブクラスを含んでいる。
論文 参考訳(メタデータ) (2023-07-08T23:19:53Z) - Geometric Graph Filters and Neural Networks: Limit Properties and
Discriminability Trade-offs [122.06927400759021]
本稿では,グラフニューラルネットワーク (GNN) と多様体ニューラルネットワーク (MNN) の関係について検討する。
これらのグラフ上の畳み込みフィルタとニューラルネットワークが連続多様体上の畳み込みフィルタとニューラルネットワークに収束することを示す。
論文 参考訳(メタデータ) (2023-05-29T08:27:17Z) - A Convergence Rate for Manifold Neural Networks [6.428026202398116]
ラプラスベルトラミ作用素のスペクトル分解を用いた多様体ニューラルネットワークの構成法を提案する。
この結果に基づいて、多様体の内在次元に依存する収束率を確立する。
また,ネットワークの深さと各層で使用されるフィルタ数に依存する収束率についても論じる。
論文 参考訳(メタデータ) (2022-12-23T22:44:25Z) - EIGNN: Efficient Infinite-Depth Graph Neural Networks [51.97361378423152]
グラフニューラルネットワーク(GNN)は多くのアプリケーションでグラフ構造化データのモデリングに広く利用されている。
この制限により、無限深度GNNモデルを提案し、これをEIGNN(Efficient Infinite-Depth Graph Neural Networks)と呼ぶ。
EIGNNは、最近のベースラインよりも長距離依存関係をキャプチャする能力が優れており、常に最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2022-02-22T08:16:58Z) - Graph Neural Networks: Architectures, Stability and Transferability [176.3960927323358]
グラフニューラルネットワーク(GNN)は、グラフでサポートされている信号のための情報処理アーキテクチャである。
これらは、個々の層がグラフ畳み込みフィルタのバンクを含む畳み込みニューラルネットワーク(CNN)の一般化である。
論文 参考訳(メタデータ) (2020-08-04T18:57:36Z) - Geom-GCN: Geometric Graph Convolutional Networks [15.783571061254847]
本稿では,この2つの弱点を克服するために,グラフニューラルネットワークのための新しい幾何集約手法を提案する。
提案したアグリゲーションスキームは置換不変であり、ノード埋め込み、構造近傍、二レベルアグリゲーションという3つのモジュールから構成される。
また,このスキームをGeom-GCNと呼ばれるグラフ畳み込みネットワークに実装し,グラフ上でトランスダクティブ学習を行う。
論文 参考訳(メタデータ) (2020-02-13T00:03:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。