論文の概要: Manifold Filter-Combine Networks
- arxiv url: http://arxiv.org/abs/2307.04056v1
- Date: Sat, 8 Jul 2023 23:19:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 15:38:09.470823
- Title: Manifold Filter-Combine Networks
- Title(参考訳): 多様体フィルタ結合ネットワーク
- Authors: Joyce Chew and Edward De Brouwer and Smita Krishnaswamy and Deanna
Needell and Michael Perlmutter
- Abstract要約: マニフォールドフィルタ・コミンネットワーク(Manifold Filter-Combine Networks)と呼ばれる多様体ニューラルネットワーク(MNN)のクラスを導入する。
本稿では,データ駆動型グラフの構築に基づく,多様体のグローバルな知識がない場合に,そのようなネットワークを実装する手法を検討する。
我々は、サンプル点の数が無限大になる傾向があるため、ネットワークがその連続極限に確実に収束する十分な条件を提供する。
- 参考スコア(独自算出の注目度): 13.156027959907327
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a large class of manifold neural networks (MNNs) which we call
Manifold Filter-Combine Networks. This class includes as special cases, the
MNNs considered in previous work by Wang, Ruiz, and Ribeiro, the manifold
scattering transform (a wavelet-based model of neural networks), and other
interesting examples not previously considered in the literature such as the
manifold equivalent of Kipf and Welling's graph convolutional network. We then
consider a method, based on building a data-driven graph, for implementing such
networks when one does not have global knowledge of the manifold, but merely
has access to finitely many sample points. We provide sufficient conditions for
the network to provably converge to its continuum limit as the number of sample
points tends to infinity. Unlike previous work (which focused on specific MNN
architectures and graph constructions), our rate of convergence does not
explicitly depend on the number of filters used. Moreover, it exhibits linear
dependence on the depth of the network rather than the exponential dependence
obtained previously.
- Abstract(参考訳): 我々は,Manifold Filter-Combine Networksと呼ぶ,多種多様な多様体ニューラルネットワーク(MNN)を導入する。
このクラスには、Wang、Ruiz、Ribeiroによる以前の研究で考慮されたMNN、多様体散乱変換(ニューラルネットワークのウェーブレットモデル)、およびキップやウェリングのグラフ畳み込みネットワークと同等の多様体のような文献でこれまで考えられていなかった興味深い例が含まれる。
次に、そのようなネットワークを実装するためのデータ駆動グラフを構築する手法について、多様体の全体的知識を持たないが有限個のサンプル点へのアクセスしか持たない場合を考える。
サンプル点の数が無限になりがちであるため,ネットワークはその連続限界に確実に収束するのに十分な条件を与える。
従来の作業(特定のMNNアーキテクチャやグラフ構造に焦点を当てた)とは異なり、コンバージェンスの割合は、使用するフィルタの数に明示的に依存しない。
さらに,従来得られた指数的依存よりもネットワークの深さに線形依存を示す。
関連論文リスト
- Convergence of Manifold Filter-Combine Networks [18.590886216749528]
多様体ニューラルネットワーク(MNN)をよりよく理解するために,Manifold Filter-Combine Networks (MFCNs)を導入する。
スパースグラフによる多様体の近似に依存する高次元点雲上でのMFCNの実装法を提案する。
我々は,データ点数が無限大になる傾向にあるため,この手法は極限に収束するという意味で一貫したものであることを証明した。
論文 参考訳(メタデータ) (2024-10-18T17:40:58Z) - Geometric Graph Filters and Neural Networks: Limit Properties and
Discriminability Trade-offs [122.06927400759021]
本稿では,グラフニューラルネットワーク (GNN) と多様体ニューラルネットワーク (MNN) の関係について検討する。
これらのグラフ上の畳み込みフィルタとニューラルネットワークが連続多様体上の畳み込みフィルタとニューラルネットワークに収束することを示す。
論文 参考訳(メタデータ) (2023-05-29T08:27:17Z) - Convolutional Neural Networks on Manifolds: From Graphs and Back [122.06927400759021]
本稿では,多様体畳み込みフィルタと点次非線形性からなる多様体ニューラルネットワーク(MNN)を提案する。
要約すると、我々は大きなグラフの極限として多様体モデルに焦点を合わせ、MNNを構築するが、それでもMNNの離散化によってグラフニューラルネットワークを復活させることができる。
論文 参考訳(メタデータ) (2022-10-01T21:17:39Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - MGDCF: Distance Learning via Markov Graph Diffusion for Neural
Collaborative Filtering [96.65234340724237]
現状のGNNベースCFモデルとコンテキスト符号化に基づく従来の1層NRLモデルとの等価性を示す。
マルコフグラフ拡散協調フィルタ (MGDCF) を用いて, 最先端のGNNベースCFモデルを一般化する。
論文 参考訳(メタデータ) (2022-04-05T17:24:32Z) - Understanding the Basis of Graph Convolutional Neural Networks via an
Intuitive Matched Filtering Approach [7.826806223782053]
グラフ畳み込みニューラルネットワーク(GCNN)は不規則領域のデータ処理において好まれるモデルとなっている。
これらの畳み込み層は、選択したパターンと一致した入力データのフィルタリングを効果的に行うことを示す。
数値的な例は、GCNN操作の様々なステップをガイドし、視覚的にも数値的にも学習する。
論文 参考訳(メタデータ) (2021-08-23T12:41:06Z) - Ranking Structured Objects with Graph Neural Networks [0.0]
RankGNNはグラフ間のペアワイズ選好のセットでトレーニングされており、一方が他方よりも好まれていることを示唆している。
この問題の実用的な適用の1つは薬剤の候補者の大規模なコレクションの最も有望な分子を見つけたいと思う薬剤のスクリーニングです。
提案するペアワイズrankgnnアプローチが,平均的なポイントワイズベースラインアプローチのランキング性能を有意に上回っているか,少なくとも同等であることを示す。
論文 参考訳(メタデータ) (2021-04-18T14:40:59Z) - Recurrent Graph Tensor Networks: A Low-Complexity Framework for
Modelling High-Dimensional Multi-Way Sequence [24.594587557319837]
我々は、リカレントニューラルネットワーク(RNN)における隠れ状態のモデリングを近似するグラフフィルタフレームワークを開発する。
提案するフレームワークは、複数のマルチウェイシーケンスモデリングタスクを通じて検証され、従来のRNNに対してベンチマークされる。
提案したRGTNは,標準RNNよりも優れるだけでなく,従来のRNNと関連する次元の曲線を緩和できることを示す。
論文 参考訳(メタデータ) (2020-09-18T10:13:36Z) - Policy-GNN: Aggregation Optimization for Graph Neural Networks [60.50932472042379]
グラフニューラルネットワーク(GNN)は、局所的なグラフ構造をモデル化し、隣人からの情報を集約することで階層的なパターンを捉えることを目的としている。
複雑なグラフとスパースな特徴を与えられた各ノードに対して効果的なアグリゲーション戦略を開発することは難しい課題である。
本稿では,GNNのサンプリング手順とメッセージパッシングを複合学習プロセスにモデル化するメタ政治フレームワークであるPolicy-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-26T17:03:06Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。