論文の概要: Fully-Connected Network on Noncompact Symmetric Space and Ridgelet
Transform based on Helgason-Fourier Analysis
- arxiv url: http://arxiv.org/abs/2203.01631v1
- Date: Thu, 3 Mar 2022 10:45:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-05 02:48:08.979292
- Title: Fully-Connected Network on Noncompact Symmetric Space and Ridgelet
Transform based on Helgason-Fourier Analysis
- Title(参考訳): Helgason-Fourier解析に基づく非コンパクト対称性空間とリッジレット変換の完全接続網
- Authors: Sho Sonoda, Isao Ishikawa, Masahiro Ikeda
- Abstract要約: 完全連結ネットワークとその関連するリッジレット変換を非コンパクト対称空間上に提示する。
リッジレット変換は、神経細胞に分散された深さ2連続ネットワークの解析演算子である。
座標自由化により、非線形活性化関数の役割はウェーブレット関数であることが判明した。
- 参考スコア(独自算出の注目度): 10.05944106581306
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural network on Riemannian symmetric space such as hyperbolic space and the
manifold of symmetric positive definite (SPD) matrices is an emerging subject
of research in geometric deep learning. Based on the well-established framework
of the Helgason-Fourier transform on the noncompact symmetric space, we present
a fully-connected network and its associated ridgelet transform on the
noncompact symmetric space, covering the hyperbolic neural network (HNN) and
the SPDNet as special cases. The ridgelet transform is an analysis operator of
a depth-2 continuous network spanned by neurons, namely, it maps an arbitrary
given function to the weights of a network. Thanks to the coordinate-free
reformulation, the role of nonlinear activation functions is revealed to be a
wavelet function, and the reconstruction formula directly yields the
universality of the proposed networks.
- Abstract(参考訳): 双曲空間や対称正定値行列(SPD)多様体のようなリーマン対称空間上のニューラルネットワークは、幾何学的深層学習の研究の新たな主題である。
非コンパクト対称空間上のヘルガソン・フーリエ変換の確立された枠組みに基づいて、双曲型ニューラルネットワーク(hnn)とspdnetをカバーする非コンパクト対称空間上の完全連結ネットワークとその関連リッジレット変換を特別な場合として提示する。
リッジレット変換(英: ridgelet transform)は、ニューロンが分散する深さ2の連続ネットワークの解析演算子であり、任意の関数をネットワークの重みにマッピングする。
座標自由化により、非線形活性化関数の役割はウェーブレット関数であることが判明し、再構成公式は提案したネットワークの普遍性を直接生成する。
関連論文リスト
- Symmetry Adapted Residual Neural Network Diabatization: Conical Intersections in Aniline Photodissociation [1.2365038403958204]
準双曲型ハミルトニアンを構成するために,対称性適応型ニューラルネットワーク (SAResNet) のダイアバタイズ手法を提案する。
我々のSAResNetはアニリンN-H結合光解離のための36次元結合ダイアバティックポテンシャル表面の構築に応用されている。
論文 参考訳(メタデータ) (2024-11-03T21:56:25Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Joint Group Invariant Functions on Data-Parameter Domain Induce
Universal Neural Networks [14.45619075342763]
本稿では、一般化されたニューラルネットワークとその右逆演算子であるリッジレット変換を誘導する体系的手法を提案する。
リッジレット変換は逆であるため、対象関数を表すためにネットワークのパラメータの配置を記述することができる。
より広い階層のネットワークを包含する統一的な方法でシュルの補題を用いて、普遍性の新たな単純な証明を示す。
論文 参考訳(メタデータ) (2023-10-05T13:30:37Z) - Conformal Isometry of Lie Group Representation in Recurrent Network of
Grid Cells [52.425628028229156]
本稿では,リカレントネットワークモデルを用いたグリッドセルの特性について検討する。
グリッドセルの連続的誘引ニューラルネットワークの基盤となる,単純な非線形リカレントモデルに着目する。
論文 参考訳(メタデータ) (2022-10-06T05:26:49Z) - Nested Hyperbolic Spaces for Dimensionality Reduction and Hyperbolic NN
Design [8.250374560598493]
ハイパーボリックニューラルネットワークは、階層的なデータセットを効率的かつ効率的に表現できることから、近年人気がある。
これらのネットワークを開発する際の課題は、埋め込み空間、すなわち双曲空間の非線形性にある。
本稿では, 射影(埋め込み)の概念と, 内在的な凝集, 双曲空間内の非線形性を併用した, 完全双曲型ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-12-03T03:20:27Z) - Convolutional Filtering and Neural Networks with Non Commutative
Algebras [153.20329791008095]
本研究では,非可換畳み込みニューラルネットワークの一般化について検討する。
非可換畳み込み構造は作用素空間上の変形に対して安定であることを示す。
論文 参考訳(メタデータ) (2021-08-23T04:22:58Z) - Encoding Involutory Invariance in Neural Networks [1.6371837018687636]
ある状況では、ニューラルネットワーク(NN)は、基礎となる物理対称性に従うデータに基づいて訓練される。
本研究では、関数がパリティまでのインボリュート線型/ファイン変換に対して不変な特別な対称性について検討する。
数値実験により,提案モデルが与えられた対称性を尊重しながらベースラインネットワークより優れていたことが示唆された。
また,本手法を水平/垂直反射対称性を持つデータセットに対する畳み込みNN分類タスクに適用する手法も提案されている。
論文 参考訳(メタデータ) (2021-06-07T16:07:15Z) - Fully Hyperbolic Neural Networks [63.22521652077353]
ローレンツモデルに基づく双曲型ネットワークを構築するための,完全双曲型フレームワークを提案する。
提案手法は,浅層ネットワークと深層ネットワークの両方を構築する上で,優れた性能を示す。
論文 参考訳(メタデータ) (2021-05-31T03:36:49Z) - What Kinds of Functions do Deep Neural Networks Learn? Insights from
Variational Spline Theory [19.216784367141972]
本研究では,ReLUアクティベーション機能を用いた深層ニューラルネットワークが学習する関数の特性を理解するための変分フレームワークを開発する。
我々は、深層 relu ネットワークが、この関数空間における正規化データ適合問題の解であることを示す表現子定理を導出する。
論文 参考訳(メタデータ) (2021-05-07T16:18:22Z) - From deep to Shallow: Equivalent Forms of Deep Networks in Reproducing
Kernel Krein Space and Indefinite Support Vector Machines [63.011641517977644]
ディープネットワークを等価な(不確定な)カーネルマシンに変換します。
次に、この変換がキャパシティ制御および一様収束に与える影響について検討する。
最後に、平坦表現の空間性について解析し、平坦な重みが(効果的に) 0p1 で正規化された Lp-"ノルム" であることが示される。
論文 参考訳(メタデータ) (2020-07-15T03:21:35Z) - Understanding Graph Neural Networks with Generalized Geometric
Scattering Transforms [67.88675386638043]
散乱変換は、畳み込みニューラルネットワークのモデルとして機能する多層ウェーブレットベースのディープラーニングアーキテクチャである。
非対称ウェーブレットの非常に一般的なクラスに基づくグラフに対して、窓付きおよび非窓付き幾何散乱変換を導入する。
これらの非対称グラフ散乱変換は、対称グラフ散乱変換と多くの理論的保証を持つことを示す。
論文 参考訳(メタデータ) (2019-11-14T17:23:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。