論文の概要: Equivariant and Steerable Neural Networks: A review with special
emphasis on the symmetric group
- arxiv url: http://arxiv.org/abs/2301.03019v1
- Date: Sun, 8 Jan 2023 11:05:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 15:55:43.330486
- Title: Equivariant and Steerable Neural Networks: A review with special
emphasis on the symmetric group
- Title(参考訳): 等変・ステアブルニューラルネットワーク--対称群を中心に-
- Authors: Patrick Kr\"uger, Hanno Gottschalk
- Abstract要約: 畳み込みニューラルネットワークはコンピュータビジョンとナトリウム言語処理に革命をもたらした。
その効率性は、完全に接続されたニューラルネットワークと比較して、アーキテクチャに起源を持つ。
等変層やフィルタバンク,カプセルの活性化,グループプールなどのネットワークアーキテクチャを概観する。
- 参考スコア(独自算出の注目度): 0.76146285961466
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Convolutional neural networks revolutionized computer vision and natrual
language processing. Their efficiency, as compared to fully connected neural
networks, has its origin in the architecture, where convolutions reflect the
translation invariance in space and time in pattern or speech recognition
tasks. Recently, Cohen and Welling have put this in the broader perspective of
invariance under symmetry groups, which leads to the concept of group
equivaiant neural networks and more generally steerable neural networks. In
this article, we review the architecture of such networks including equivariant
layers and filter banks, activation with capsules and group pooling. We apply
this formalism to the symmetric group, for which we work out a number of
details on representations and capsules that are not found in the literature.
- Abstract(参考訳): 畳み込みニューラルネットワークはコンピュータビジョンとナルーラル言語処理に革命をもたらした。
その効率性は、完全に接続されたニューラルネットワークと比較して、パターンや音声認識タスクにおいて、畳み込みが空間や時間における変換不変性を反映しているアーキテクチャに起源がある。
近年、コーエンとウェリングは、このことを対称群の下での不変性(invariance)のより広い視点で捉え、グループ同値ニューラルネットワークとより一般に操縦可能なニューラルネットワークの概念に繋がる。
本稿では,等変層やフィルタバンク,カプセルによる活性化,グループプールなどのネットワークアーキテクチャについて概説する。
この形式を対称群に適用し、文献には見つからない表現やカプセルについて多くの詳細を述べる。
関連論文リスト
- The role of data embedding in equivariant quantum convolutional neural
networks [2.255961793913651]
等変量子ニューラルネットワーク(EQNN)の性能に及ぼす古典量子埋め込みの影響について検討する。
等価な量子畳み込みニューラルネットワーク(QCNN)から得られた3種類の振幅埋め込みと、EQCNNの分類精度を数値的に比較する。
論文 参考訳(メタデータ) (2023-12-20T18:25:15Z) - On The Expressivity of Recurrent Neural Cascades [53.397276621815614]
リカレントニューラルカスケード(Recurrent Neural Cascades、RNC)は、リカレントニューラルネットワークであり、リカレントニューロン間で循環的依存を持たない。
RNCは、グループを実装可能なニューロンを導入することで、すべての正規言語を表現できることを示す。
論文 参考訳(メタデータ) (2023-12-14T15:47:26Z) - Riemannian Residual Neural Networks [58.925132597945634]
残余ニューラルネットワーク(ResNet)の拡張方法を示す。
ResNetは、機械学習において、有益な学習特性、優れた経験的結果、そして様々なニューラルネットワークを構築する際に容易に組み込める性質のために、ユビキタスになった。
論文 参考訳(メタデータ) (2023-10-16T02:12:32Z) - SO(2) and O(2) Equivariance in Image Recognition with
Bessel-Convolutional Neural Networks [63.24965775030674]
この研究はベッセル畳み込みニューラルネットワーク(B-CNN)の開発を示す
B-CNNは、ベッセル関数に基づく特定の分解を利用して、画像とフィルタの間のキー操作を変更する。
他の手法と比較して,B-CNNの性能を評価するために検討を行った。
論文 参考訳(メタデータ) (2023-04-18T18:06:35Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - Bispectral Neural Networks [1.0323063834827415]
ニューラルネットワークアーキテクチャBNN(Bispectral Neural Networks)を提案する。
BNNは、群、その既約表現、および対応する同変写像と完全不変写像を同時に学習することができる。
論文 参考訳(メタデータ) (2022-09-07T18:34:48Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Similarity and Matching of Neural Network Representations [0.0]
我々は、深層ニューラルネットワークにおける表現の類似性を分析するために、Frankenstein博士と呼ばれるツールセットを使用します。
我々は、2つのトレーニングニューラルネットワークの与えられた層上でのアクティベーションを、縫合層で結合することで一致させることを目指している。
論文 参考訳(メタデータ) (2021-10-27T17:59:46Z) - Generalization capabilities of translationally equivariant neural
networks [0.0]
本研究では,2次元格子上の複素スカラー場理論に着目し,群同変畳み込みニューラルネットワークアーキテクチャの利点について検討する。
有意義な比較のために、同値および非同値ニューラルネットワークアーキテクチャを体系的に探索し、様々な回帰および分類タスクに適用する。
我々の最善の同変アーキテクチャは、それらの非同変アーキテクチャよりも相当よく機能し、一般化できることを実証する。
論文 参考訳(メタデータ) (2021-03-26T18:53:36Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。