論文の概要: Tangent Bundle Filters and Neural Networks: from Manifolds to Cellular
Sheaves and Back
- arxiv url: http://arxiv.org/abs/2210.15058v1
- Date: Wed, 26 Oct 2022 21:55:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 15:51:40.018187
- Title: Tangent Bundle Filters and Neural Networks: from Manifolds to Cellular
Sheaves and Back
- Title(参考訳): タンジェントバンドルフィルタとニューラルネットワーク:マニフォールドからセルシーブ・バックへ
- Authors: Claudio Battiloro, Zhiyang Wang, Hans Riess, Paolo Di Lorenzo,
Alejandro Ribeiro
- Abstract要約: 畳み込みを用いて、タンジェントバンドルフィルタとタンジェントバンドルニューラルネットワーク(TNN)を定義する。
我々は、TNNを時間領域と空間領域の両方で識別し、その離散性は、最近導入されたSheaf Neural Networksの原則的な変種であることを示す。
単体2次元球面上の接ベクトル場の復調作業における提案手法の有効性を数値的に評価する。
- 参考スコア(独自算出の注目度): 114.01902073621577
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work we introduce a convolution operation over the tangent bundle of
Riemannian manifolds exploiting the Connection Laplacian operator. We use the
convolution to define tangent bundle filters and tangent bundle neural networks
(TNNs), novel continuous architectures operating on tangent bundle signals,
i.e. vector fields over manifolds. We discretize TNNs both in space and time
domains, showing that their discrete counterpart is a principled variant of the
recently introduced Sheaf Neural Networks. We formally prove that this discrete
architecture converges to the underlying continuous TNN. We numerically
evaluate the effectiveness of the proposed architecture on a denoising task of
a tangent vector field over the unit 2-sphere.
- Abstract(参考訳): 本稿では、接続ラプラシアン作用素を利用したリーマン多様体の接束上の畳み込み演算を導入する。
畳み込みを用いて、接束フィルタと接束ニューラルネットワーク(tnn)を定義し、接束信号、すなわち多様体上のベクトル場で動作する新しい連続アーキテクチャを定義する。
我々は空間領域と時間領域の両方でTNNを識別し、その離散的対応が最近導入されたSheaf Neural Networksの原理的な変形であることを示す。
我々は、この離散アーキテクチャが基礎となる連続TNNに収束することを正式に証明する。
単位 2-球面上の接ベクトル場の除音タスクにおける提案アーキテクチャの有効性を数値的に評価する。
関連論文リスト
- Bundle Neural Networks for message diffusion on graphs [10.018379001231356]
結合ニューラルネットワーク(BuNN)は,任意のグラフ上の任意の特徴変換をインジェクティブな位置符号化で近似できることを示す。
また、BuNNが任意のグラフの族上の任意の特徴変換を近似して、任意の射影的位置エンコーディングを行えば、普遍的なノードレベルの表現性が得られることを証明した。
論文 参考訳(メタデータ) (2024-05-24T13:28:48Z) - Geometric Graph Filters and Neural Networks: Limit Properties and
Discriminability Trade-offs [122.06927400759021]
本稿では,グラフニューラルネットワーク (GNN) と多様体ニューラルネットワーク (MNN) の関係について検討する。
これらのグラフ上の畳み込みフィルタとニューラルネットワークが連続多様体上の畳み込みフィルタとニューラルネットワークに収束することを示す。
論文 参考訳(メタデータ) (2023-05-29T08:27:17Z) - Resolution-Invariant Image Classification based on Fourier Neural
Operators [1.3190581566723918]
画像分類における一般化ニューラルネットワーク (FNO) の利用について, 標準畳み込みニューラルネットワーク (CNN) と比較して検討した。
我々は、ルベーグ空間上の連続およびFr'echet微分可能なニューラル作用素の例としてFNOアーキテクチャを導出する。
論文 参考訳(メタデータ) (2023-04-02T10:23:36Z) - Tangent Bundle Convolutional Learning: from Manifolds to Cellular Sheaves and Back [84.61160272624262]
この畳み込み操作に基づいて,タンジェントバンドルフィルタとタンジェントバンドルニューラルネットワーク(TNN)を定義する。
タンジェントバンドルフィルタは、スカラー多様体フィルタ、グラフフィルタ、標準畳み込みフィルタを連続的に一般化するスペクトル表現を許容する。
提案したアーキテクチャが様々な学習課題に与える影響を数値的に評価する。
論文 参考訳(メタデータ) (2023-03-20T17:57:15Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - Convolutional Neural Networks on Manifolds: From Graphs and Back [122.06927400759021]
本稿では,多様体畳み込みフィルタと点次非線形性からなる多様体ニューラルネットワーク(MNN)を提案する。
要約すると、我々は大きなグラフの極限として多様体モデルに焦点を合わせ、MNNを構築するが、それでもMNNの離散化によってグラフニューラルネットワークを復活させることができる。
論文 参考訳(メタデータ) (2022-10-01T21:17:39Z) - Interrelation of equivariant Gaussian processes and convolutional neural
networks [77.34726150561087]
現在、ニューラルネットワーク(NN)とガウス過程(GP)の関係に基づく機械学習(ML)には、かなり有望な新しい傾向がある。
本研究では、ベクトル値のニューロン活性化を持つ2次元ユークリッド群とそれに対応する独立に導入された同変ガウス過程(GP)との関係を確立する。
論文 参考訳(メタデータ) (2022-09-17T17:02:35Z) - Sheaf Neural Networks with Connection Laplacians [3.3414557160889076]
シーフニューラルネットワーク(英: Sheaf Neural Network、略称:SNN)は、グラフニューラルネットワークの一種で、グラフにノードとエッジにベクトル空間とそれらの空間の間の線形写像を割り当てるオブジェクトである。
それまでの研究では、ドメイン知識に基づいたシーフを手作業で構築することと、勾配に基づく手法によるシーフエンドツーエンドの学習という2つのダイメトリックなアプローチが提案されていた。
本研究ではリーマン幾何学から着想を得た新しい計算方法を提案する。
提案手法は,従来のSNNモデルと比較して計算オーバーヘッドが少なく,有望な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-06-17T11:39:52Z) - Two-layer neural networks with values in a Banach space [1.90365714903665]
本研究では,領域と範囲がバラッハ空間である2層ニューラルネットワークについて検討する。
非線形性として、正の部分を取る格子演算を選択し、$mathbb Rd$-valued ニューラルネットワークの場合、これはReLU活性化関数に対応する。
論文 参考訳(メタデータ) (2021-05-05T14:54:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。