論文の概要: Theoretical Aspects of Group Equivariant Neural Networks
- arxiv url: http://arxiv.org/abs/2004.05154v2
- Date: Thu, 30 Apr 2020 02:10:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 20:17:19.788499
- Title: Theoretical Aspects of Group Equivariant Neural Networks
- Title(参考訳): 群同変ニューラルネットワークの理論的側面
- Authors: Carlos Esteves
- Abstract要約: 群同変ニューラルネットワークはここ数年で研究され、理論的および実践的な観点から興味深い。
彼らは群表現論、非可換調和解析、微分幾何学の概念を利用する。
実際には、サンプルやモデルの複雑さを減らすことが示されており、特に任意の回転のような入力変換が存在する困難なタスクでは顕著である。
- 参考スコア(独自算出の注目度): 9.449391486456209
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Group equivariant neural networks have been explored in the past few years
and are interesting from theoretical and practical standpoints. They leverage
concepts from group representation theory, non-commutative harmonic analysis
and differential geometry that do not often appear in machine learning. In
practice, they have been shown to reduce sample and model complexity, notably
in challenging tasks where input transformations such as arbitrary rotations
are present. We begin this work with an exposition of group representation
theory and the machinery necessary to define and evaluate integrals and
convolutions on groups. Then, we show applications to recent SO(3) and SE(3)
equivariant networks, namely the Spherical CNNs, Clebsch-Gordan Networks, and
3D Steerable CNNs. We proceed to discuss two recent theoretical results. The
first, by Kondor and Trivedi (ICML'18), shows that a neural network is group
equivariant if and only if it has a convolutional structure. The second, by
Cohen et al. (NeurIPS'19), generalizes the first to a larger class of networks,
with feature maps as fields on homogeneous spaces.
- Abstract(参考訳): 群同変ニューラルネットワークはここ数年で研究され、理論的および実践的な観点から興味深い。
群表現論、非可換調和解析、微分幾何学の概念を応用し、機械学習にはあまり現れない。
実際には、サンプルやモデルの複雑さを減らすことが示されており、特に任意の回転のような入力変換が存在する困難なタスクでは顕著である。
この研究は、群表現論と群上の積分と畳み込みを定義し評価するために必要な機械の表現から始めます。
次に,最近のSpherical CNN,Clebsch-Gordan Networks,および3D Steerable CNNといったSO(3)およびSE(3)同変ネットワークへの応用を示す。
最近の2つの理論的結果について議論する。
第一に、Kondor and Trivedi (ICML'18) は、ニューラルネットワークが群同変であることと、畳み込み構造を持つことを示している。
第二に、Cohen et al. (NeurIPS'19) は、同次空間上の体として特徴写像を持つ、最初のものからより大きな種類のネットワークを一般化した。
関連論文リスト
- Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - G-RepsNet: A Fast and General Construction of Equivariant Networks for
Arbitrary Matrix Groups [8.24167511378417]
グループ同変ネットワークは、幅広いディープラーニングタスクにおいて有用である。
本稿では,グループ表現ネットワーク(G-RepsNets)について紹介する。
G-RepsNetはG-FNO (Helwig et al., 2023) とEGNN (Satorras et al., 2023) にそれぞれN体予測とPDEの解について競合することを示す。
論文 参考訳(メタデータ) (2024-02-23T16:19:49Z) - Investigating how ReLU-networks encode symmetries [13.935148870831396]
ネットワークの等式がすべての層が等式であることを示すかどうかを考察する。
等変で訓練されたCNNは階層的に等変を示すと推測する。
2つの異なるネットワークをマージするよりも、ネットワークとグループ変換されたバージョンをマージすることが通常容易であることを示す。
論文 参考訳(メタデータ) (2023-05-26T15:23:20Z) - Equivalence Between SE(3) Equivariant Networks via Steerable Kernels and
Group Convolution [90.67482899242093]
近年, 入力の回転と変換において等価な3次元データに対して, ニューラルネットワークを設計するための幅広い手法が提案されている。
両手法とその等価性を詳細に解析し,その2つの構成をマルチビュー畳み込みネットワークに関連付ける。
また、同値原理から新しいTFN非線形性を導出し、実用的なベンチマークデータセット上でテストする。
論文 参考訳(メタデータ) (2022-11-29T03:42:11Z) - Equivariant Transduction through Invariant Alignment [71.45263447328374]
グループ内ハードアライメント機構を組み込んだ,新しいグループ同変アーキテクチャを提案する。
我々のネットワーク構造は、既存のグループ同変アプローチよりも強い同変特性を発達させることができる。
また、SCANタスクにおいて、従来のグループ同変ネットワークよりも経験的に優れていたことが判明した。
論文 参考訳(メタデータ) (2022-09-22T11:19:45Z) - Universality of group convolutional neural networks based on ridgelet
analysis on groups [10.05944106581306]
グループ畳み込みニューラルネットワーク(GCNN)のリッジレット理論に基づく近似特性について検討する。
群表現間の非線形写像として多目的GCNNを定式化する。
論文 参考訳(メタデータ) (2022-05-30T02:52:22Z) - Geometric Deep Learning and Equivariant Neural Networks [0.9381376621526817]
幾何学的深層学習の数学的基礎を調査し,群同変とゲージ同変ニューラルネットワークに着目した。
任意の多様体 $mathcalM$ 上のゲージ同変畳み込みニューラルネットワークを、構造群 $K$ の主バンドルと、関連するベクトルバンドルの切断間の同変写像を用いて開発する。
セマンティックセグメンテーションやオブジェクト検出ネットワークなど,このフォーマリズムのいくつかの応用を解析する。
論文 参考訳(メタデータ) (2021-05-28T15:41:52Z) - A Practical Method for Constructing Equivariant Multilayer Perceptrons
for Arbitrary Matrix Groups [115.58550697886987]
行列群の同変層を解くための完全一般的なアルゴリズムを提供する。
他作品からのソリューションを特殊ケースとして回収するだけでなく、これまで取り組んだことのない複数のグループと等価な多層パーセプトロンを構築します。
提案手法は, 粒子物理学および力学系への応用により, 非同変基底線より優れる。
論文 参考訳(メタデータ) (2021-04-19T17:21:54Z) - Group Equivariant Neural Architecture Search via Group Decomposition and
Reinforcement Learning [17.291131923335918]
我々は、同値ニューラルネットワークの文脈において、新しい群論的結果を証明する。
また、計算複雑性を大幅に改善する同変ネットワークを構築するアルゴリズムを設計する。
我々は、性能を最大化するグループ同変ネットワークの探索に深層Q-ラーニングを用いる。
論文 参考訳(メタデータ) (2021-04-10T19:37:25Z) - LieTransformer: Equivariant self-attention for Lie Groups [49.9625160479096]
群等価ニューラルネットワークは群不変ニューラルネットワークの構成要素として用いられる。
我々は、文学の範囲を、ディープラーニングモデルの顕著な構築ブロックとして現れつつある自己注意にまで広げる。
任意のリー群とその離散部分群に同値なリー自己結合層からなる構造であるリー変換器を提案する。
論文 参考訳(メタデータ) (2020-12-20T11:02:49Z) - MDP Homomorphic Networks: Group Symmetries in Reinforcement Learning [90.20563679417567]
本稿では,深層強化学習のためのMDP準同型ネットワークを提案する。
MDP準同型ネットワーク(英: MDP homomorphic network)は、MDPの結合状態-作用空間における対称性の下で不変なニューラルネットワークである。
このようなネットワークは,グリッドワールドであるCartPoleとPongの非構造化ネットワークよりも高速に収束することを示す。
論文 参考訳(メタデータ) (2020-06-30T15:38:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。