論文の概要: Geometric Deep Learning and Equivariant Neural Networks
- arxiv url: http://arxiv.org/abs/2105.13926v1
- Date: Fri, 28 May 2021 15:41:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-31 13:44:10.623456
- Title: Geometric Deep Learning and Equivariant Neural Networks
- Title(参考訳): 幾何学的ディープラーニングと等価ニューラルネットワーク
- Authors: Jan E. Gerken, Jimmy Aronsson, Oscar Carlsson, Hampus Linander,
Fredrik Ohlsson, Christoffer Petersson, Daniel Persson
- Abstract要約: 幾何学的深層学習の数学的基礎を調査し,群同変とゲージ同変ニューラルネットワークに着目した。
任意の多様体 $mathcalM$ 上のゲージ同変畳み込みニューラルネットワークを、構造群 $K$ の主バンドルと、関連するベクトルバンドルの切断間の同変写像を用いて開発する。
セマンティックセグメンテーションやオブジェクト検出ネットワークなど,このフォーマリズムのいくつかの応用を解析する。
- 参考スコア(独自算出の注目度): 0.9381376621526817
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We survey the mathematical foundations of geometric deep learning, focusing
on group equivariant and gauge equivariant neural networks. We develop gauge
equivariant convolutional neural networks on arbitrary manifolds $\mathcal{M}$
using principal bundles with structure group $K$ and equivariant maps between
sections of associated vector bundles. We also discuss group equivariant neural
networks for homogeneous spaces $\mathcal{M}=G/K$, which are instead
equivariant with respect to the global symmetry $G$ on $\mathcal{M}$. Group
equivariant layers can be interpreted as intertwiners between induced
representations of $G$, and we show their relation to gauge equivariant
convolutional layers. We analyze several applications of this formalism,
including semantic segmentation and object detection networks. We also discuss
the case of spherical networks in great detail, corresponding to the case
$\mathcal{M}=S^2=\mathrm{SO}(3)/\mathrm{SO}(2)$. Here we emphasize the use of
Fourier analysis involving Wigner matrices, spherical harmonics and
Clebsch-Gordan coefficients for $G=\mathrm{SO}(3)$, illustrating the power of
representation theory for deep learning.
- Abstract(参考訳): 幾何学的深層学習の数学的基礎を調査し,群同変とゲージ同変ニューラルネットワークに着目した。
任意の多様体上のゲージ同変畳み込みニューラルネットワークを、構造群$K$の主バンドルと、関連するベクトル束の切断間の同変写像を用いて開発する。
また、一様空間に対する群同変ニューラルネットワークである$\mathcal{m}=g/k$についても論じる。
群同変層は、$G$の誘導表現の間のインターツウィンダーと解釈でき、その関係をゲージ同変畳み込み層に示す。
セマンティックセグメンテーションやオブジェクト検出ネットワークなど,このフォーマリズムのいくつかの応用を解析する。
また, 球面ネットワークの場合についても, $\mathcal{M}=S^2=\mathrm{SO}(3)/\mathrm{SO}(2)$ に対応して詳細に論じる。
ここでは、wigner行列、球面調和、clebsch-gordan係数を含むフーリエ解析を$g=\mathrm{so}(3)$で使用することを強調し、深層学習における表現論の力を示す。
関連論文リスト
- Lie Neurons: Adjoint-Equivariant Neural Networks for Semisimple Lie Algebras [5.596048634951087]
本稿では,任意の半単純リー代数のデータを入力として取り込む同変ニューラルネットワークを提案する。
対応する群はリー代数を随伴演算として作用し、提案したネットワーク随伴-同変を導出する。
我々のフレームワークは、3次元ユークリッド空間からリー代数空間への単純な$mathrmSO(3)$-equivariantネットワークであるベクトルニューロンを一般化する。
論文 参考訳(メタデータ) (2023-10-06T18:34:27Z) - Graph Automorphism Group Equivariant Neural Networks [1.9643748953805935]
置換同変ニューラルネットワークは通常、グラフ上に存在するデータから学習するために使用される。
学習可能で線形なAut$(G)$-evariant関数の完全な特徴付けを得ることにより、Aut$(G)$と等価なニューラルネットワークを構築する方法を示す。
論文 参考訳(メタデータ) (2023-07-15T14:19:42Z) - Geometric Clifford Algebra Networks [53.456211342585824]
本稿では,動的システムのモデリングのためのGeometric Clifford Algebra Networks (GCANs)を提案する。
GCANは幾何学的(クリフォード)代数を用いた対称性群変換に基づいている。
論文 参考訳(メタデータ) (2023-02-13T18:48:33Z) - How Jellyfish Characterise Alternating Group Equivariant Neural Networks [0.0]
学習可能で線型で$A_n$-equivariantな層関数の基底は、そのようなテンソルパワー空間の間の$mathbbRn$の標準基底である。
また,本手法が局所対称性に同値なニューラルネットワークの構築にどのように一般化するかについても述べる。
論文 参考訳(メタデータ) (2023-01-24T17:39:10Z) - Deep Learning Symmetries and Their Lie Groups, Algebras, and Subalgebras
from First Principles [55.41644538483948]
ラベル付きデータセットに存在する連続した対称性群の検出と同定のためのディープラーニングアルゴリズムを設計する。
完全に接続されたニューラルネットワークを用いて、変換対称性と対応するジェネレータをモデル化する。
また,Lie群とその性質の数学的研究に機械学習アプローチを使うための扉を開く。
論文 参考訳(メタデータ) (2023-01-13T16:25:25Z) - Brauer's Group Equivariant Neural Networks [0.0]
我々は、層が$mathbbRn$のテンソルパワーを持つような全ての可能な群同変ニューラルネットワークの完全な特徴付けを提供する。
そのようなテンソルパワー空間間の学習可能、線型、等変層関数に対する行列の分散集合を求める。
論文 参考訳(メタデータ) (2022-12-16T18:08:51Z) - Equivalence Between SE(3) Equivariant Networks via Steerable Kernels and
Group Convolution [90.67482899242093]
近年, 入力の回転と変換において等価な3次元データに対して, ニューラルネットワークを設計するための幅広い手法が提案されている。
両手法とその等価性を詳細に解析し,その2つの構成をマルチビュー畳み込みネットワークに関連付ける。
また、同値原理から新しいTFN非線形性を導出し、実用的なベンチマークデータセット上でテストする。
論文 参考訳(メタデータ) (2022-11-29T03:42:11Z) - Homogeneous vector bundles and $G$-equivariant convolutional neural
networks [0.0]
G$-equivariant convolutional Neural Network (GCNN) は、均一な$G$-space $mathcalM$で定義されたデータの幾何学的深層学習モデルである。
本稿では、一モジュラーリー群 $G$ およびコンパクト部分群 $K leq G$ の場合、同次空間 $mathcalM = G/K$ 上の GCNN を解析する。
論文 参考訳(メタデータ) (2021-05-12T02:06:04Z) - A Practical Method for Constructing Equivariant Multilayer Perceptrons
for Arbitrary Matrix Groups [115.58550697886987]
行列群の同変層を解くための完全一般的なアルゴリズムを提供する。
他作品からのソリューションを特殊ケースとして回収するだけでなく、これまで取り組んだことのない複数のグループと等価な多層パーセプトロンを構築します。
提案手法は, 粒子物理学および力学系への応用により, 非同変基底線より優れる。
論文 参考訳(メタデータ) (2021-04-19T17:21:54Z) - MDP Homomorphic Networks: Group Symmetries in Reinforcement Learning [90.20563679417567]
本稿では,深層強化学習のためのMDP準同型ネットワークを提案する。
MDP準同型ネットワーク(英: MDP homomorphic network)は、MDPの結合状態-作用空間における対称性の下で不変なニューラルネットワークである。
このようなネットワークは,グリッドワールドであるCartPoleとPongの非構造化ネットワークよりも高速に収束することを示す。
論文 参考訳(メタデータ) (2020-06-30T15:38:37Z) - Stochastic Flows and Geometric Optimization on the Orthogonal Group [52.50121190744979]
直交群 $O(d)$ 上の幾何駆動最適化アルゴリズムの新しいクラスを示す。
提案手法は,深層,畳み込み,反復的なニューラルネットワーク,強化学習,フロー,メトリック学習など,機械学習のさまざまな分野に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-03-30T15:37:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。