論文の概要: VolterraNet: A higher order convolutional network with group
equivariance for homogeneous manifolds
- arxiv url: http://arxiv.org/abs/2106.15301v1
- Date: Sat, 5 Jun 2021 19:28:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-05 01:01:34.295753
- Title: VolterraNet: A higher order convolutional network with group
equivariance for homogeneous manifolds
- Title(参考訳): volterranet:一様多様体に対する群同分散を持つ高階畳み込みネットワーク
- Authors: Monami Banerjee, Rudrasis Chakraborty, Jose Bouza and Baba C. Vemuri
- Abstract要約: 畳み込みニューラルネットワークは、画像ベースの学習タスクで非常に成功した。
最近の研究は、畳み込みニューラルネットワークの伝統的な畳み込み層を非ユークリッド空間に一般化した。
本稿では,関数のサンプルとして定義されたデータに対する高次Volterra畳み込みニューラルネットワーク(VolterraNet)を提案する。
- 参考スコア(独自算出の注目度): 19.39397826006002
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional neural networks have been highly successful in image-based
learning tasks due to their translation equivariance property. Recent work has
generalized the traditional convolutional layer of a convolutional neural
network to non-Euclidean spaces and shown group equivariance of the generalized
convolution operation. In this paper, we present a novel higher order Volterra
convolutional neural network (VolterraNet) for data defined as samples of
functions on Riemannian homogeneous spaces. Analagous to the result for
traditional convolutions, we prove that the Volterra functional convolutions
are equivariant to the action of the isometry group admitted by the Riemannian
homogeneous spaces, and under some restrictions, any non-linear equivariant
function can be expressed as our homogeneous space Volterra convolution,
generalizing the non-linear shift equivariant characterization of Volterra
expansions in Euclidean space. We also prove that second order functional
convolution operations can be represented as cascaded convolutions which leads
to an efficient implementation. Beyond this, we also propose a dilated
VolterraNet model. These advances lead to large parameter reductions relative
to baseline non-Euclidean CNNs. To demonstrate the efficacy of the VolterraNet
performance, we present several real data experiments involving classification
tasks on spherical-MNIST, atomic energy, Shrec17 data sets, and group testing
on diffusion MRI data. Performance comparisons to the state-of-the-art are also
presented.
- Abstract(参考訳): 畳み込みニューラルネットワークは、その翻訳等価性のため、画像に基づく学習タスクで高い成功を収めている。
近年の研究では、畳み込みニューラルネットワークの従来の畳み込み層を非ユークリッド空間に一般化し、一般化畳み込み演算の集団同値性を示す。
本稿では,リーマン空間上の関数のサンプルとして定義されたデータに対して,高次Volterra畳み込みニューラルネットワーク(VolterraNet)を提案する。
従来の畳み込みの結果として、ボルテラ汎関数の畳み込みはリーマン斉次空間で認められる等長群の作用に同値であり、ある制限の下では任意の非線形同変函数は等質空間ボルテラ畳み込みとして表現でき、ユークリッド空間におけるボルテラ展開の非線形シフト同変キャラクタリゼーションを一般化できる。
また, 2次関数畳み込み演算をカスケード畳み込みとして表現し, 効率よく実装できることを示す。
さらに,拡張したvolterranetモデルも提案する。
これらの進歩は、ベースライン非ユークリッドcnnと比較して大きなパラメータ減少をもたらす。
本稿では,VolterraNetの性能を実証するために,球面MNISTの分類タスク,原子エネルギー,Shrec17データセット,拡散MRIデータのグループテストを含む実データ実験を紹介する。
state-of-the-artのパフォーマンス比較も紹介されている。
関連論文リスト
- Higher Order Gauge Equivariant CNNs on Riemannian Manifolds and
Applications [7.322121417864824]
我々はゲージ同変畳み込み(GEVNet)と呼ばれるゲージ同変畳み込みの高次一般化を導入する。
これにより、空間的に拡張された非線形相互作用を、大域的等距離と等値性を維持しながら、与えられた場内でモデル化することができる。
神経画像データ実験では、結果として生じる2部構造を用いて、拡散磁気共鳴画像(dMRI)からLewy Body Disease(DLB)、Alzheimer's Disease(AD)、Parkinson's Disease(PD)を自動判別する。
論文 参考訳(メタデータ) (2023-05-26T06:02:31Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - The Manifold Scattering Transform for High-Dimensional Point Cloud Data [16.500568323161563]
本稿では,自然システムにおけるデータセットへの多様体散乱変換の実装のための実践的スキームを提案する。
本手法は信号の分類や多様体の分類に有効であることを示す。
論文 参考訳(メタデータ) (2022-06-21T02:15:00Z) - Unified Fourier-based Kernel and Nonlinearity Design for Equivariant
Networks on Homogeneous Spaces [52.424621227687894]
等質空間上の群同変ネットワークに対する統一的枠組みを導入する。
昇降した特徴場のフーリエ係数の空間性を利用する。
安定化部分群におけるフーリエ係数としての特徴を取り扱う他の方法が、我々のアクティベーションの特別な場合であることを示す。
論文 参考訳(メタデータ) (2022-06-16T17:59:01Z) - ChebLieNet: Invariant Spectral Graph NNs Turned Equivariant by
Riemannian Geometry on Lie Groups [9.195729979000404]
ChebLieNet は(異方性)多様体上の群同変法である。
異方性畳み込み層からなるグラフニューラルネットワークを開発した。
CIFAR10上の異方性パラメータに対する(データに依存した)スイートスポットの存在を実証的に証明した。
論文 参考訳(メタデータ) (2021-11-23T20:19:36Z) - Topographic VAEs learn Equivariant Capsules [84.33745072274942]
本稿では, 地理的に整理された潜伏変数を用いた深部生成モデルを効率的に学習するための新しい手法であるTopographic VAEを紹介する。
このようなモデルでは,MNIST上での桁数クラス,幅,スタイルなどの健全な特徴に応じて,その活性化を組織化することが実際に学べることが示される。
我々は、既存の群同変ニューラルネットワークの能力を拡張して、複素変換に近似した同値性を示す。
論文 参考訳(メタデータ) (2021-09-03T09:25:57Z) - Group Equivariant Subsampling [60.53371517247382]
サブサンプリングは、プールやストライド畳み込みの形で畳み込みニューラルネットワーク(CNN)で使用される。
まず、正確な翻訳同変CNNを構築するために使用できる翻訳同変サブサンプリング/アップサンプリング層を導入する。
次に、これらの層を一般群への変換を超えて一般化し、したがって群同変部分サンプリング/アップサンプリングを提案する。
論文 参考訳(メタデータ) (2021-06-10T16:14:00Z) - Equivariant Spherical Deconvolution: Learning Sparse Orientation
Distribution Functions from Spherical Data [0.0]
本稿では,単位球面上で定義される非負スカラー場のスパースデコンボリューションのための回転等価非監視学習フレームワークを提案する。
人体のマルチシェルデータセットにおけるトラクトグラフィーと部分体積推定の改善について述べる。
論文 参考訳(メタデータ) (2021-02-17T16:04:35Z) - LieTransformer: Equivariant self-attention for Lie Groups [49.9625160479096]
群等価ニューラルネットワークは群不変ニューラルネットワークの構成要素として用いられる。
我々は、文学の範囲を、ディープラーニングモデルの顕著な構築ブロックとして現れつつある自己注意にまで広げる。
任意のリー群とその離散部分群に同値なリー自己結合層からなる構造であるリー変換器を提案する。
論文 参考訳(メタデータ) (2020-12-20T11:02:49Z) - Generalizing Convolutional Neural Networks for Equivariance to Lie
Groups on Arbitrary Continuous Data [52.78581260260455]
任意の特定のリー群からの変換に同値な畳み込み層を構築するための一般的な方法を提案する。
同じモデルアーキテクチャを画像、ボール・アンド・スティック分子データ、ハミルトン力学系に適用する。
論文 参考訳(メタデータ) (2020-02-25T17:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。