論文の概要: In Search of Projectively Equivariant Networks
- arxiv url: http://arxiv.org/abs/2209.14719v2
- Date: Tue, 23 May 2023 11:14:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 01:32:27.873300
- Title: In Search of Projectively Equivariant Networks
- Title(参考訳): 計画的同変ネットワークの探索
- Authors: Georg B\"okman, Axel Flinth, Fredrik Kahl
- Abstract要約: 本稿では,プロジェクティブ同変ニューラルネットワークを構築する方法を提案する。
線形層からネットワークを構築する場合,我々のアプローチが最も一般的に可能であることを示す。
- 参考スコア(独自算出の注目度): 16.056970388822307
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Equivariance of linear neural network layers is well studied. In this work,
we relax the equivariance condition to only be true in a projective sense. We
propose a way to construct a projectively equivariant neural network through
building a standard equivariant network where the linear group representations
acting on each intermediate feature space are "multiplicatively modified lifts"
of projective group representations. By theoretically studying the relation of
projectively and linearly equivariant linear layers, we show that our approach
is the most general possible when building a network out of linear layers. The
theory is showcased in two simple experiments.
- Abstract(参考訳): 線形ニューラルネットワーク層の等価性はよく研究されている。
この研究において、同値条件は射影的意味でのみ真となるように緩和する。
本稿では,各中間特徴空間に作用する線形群表現が射影群表現の「乗法修正リフト」である標準同変ネットワークを構築することにより,射影同変ニューラルネットワークを構築する方法を提案する。
線形層の射影的および線形同値な関係を理論的に研究することで、このアプローチは線形層からネットワークを構築する際に最も一般的であることを示す。
この理論は2つの単純な実験で示される。
関連論文リスト
- Equivariant neural networks and piecewise linear representation theory [0.0]
等価ニューラルネットワークは対称性を持つニューラルネットワークである。
群表現の理論により、同変ニューラルネットワークの層を単純な表現に分解する。
論文 参考訳(メタデータ) (2024-08-01T23:08:37Z) - Investigating how ReLU-networks encode symmetries [13.935148870831396]
ネットワークの等式がすべての層が等式であることを示すかどうかを考察する。
等変で訓練されたCNNは階層的に等変を示すと推測する。
2つの異なるネットワークをマージするよりも、ネットワークとグループ変換されたバージョンをマージすることが通常容易であることを示す。
論文 参考訳(メタデータ) (2023-05-26T15:23:20Z) - Self-Supervised Learning for Group Equivariant Neural Networks [75.62232699377877]
群同変ニューラルネットワーク(英: Group equivariant Neural Network)は、入力の変換で通勤する構造に制限されたモデルである。
自己教師型タスクには、同変プリテキストラベルと異変コントラスト損失という2つの概念を提案する。
標準画像認識ベンチマークの実験では、同変ニューラルネットワークが提案された自己教師型タスクを利用することを示した。
論文 参考訳(メタデータ) (2023-03-08T08:11:26Z) - Exploring Linear Feature Disentanglement For Neural Networks [63.20827189693117]
Sigmoid、ReLU、Tanhなどの非線形活性化関数は、ニューラルネットワーク(NN)において大きな成功を収めた。
サンプルの複雑な非線形特性のため、これらの活性化関数の目的は、元の特徴空間から線形分離可能な特徴空間へサンプルを投影することである。
この現象は、現在の典型的なNNにおいて、すべての特徴がすべての非線形関数によって変換される必要があるかどうかを探求することに興味をそそる。
論文 参考訳(メタデータ) (2022-03-22T13:09:17Z) - Revisiting Transformation Invariant Geometric Deep Learning: Are Initial
Representations All You Need? [80.86819657126041]
変換不変および距離保存初期表現は変換不変性を達成するのに十分であることを示す。
具体的には、多次元スケーリングを変更することで、変換不変かつ距離保存された初期点表現を実現する。
我々は、TinvNNが変換不変性を厳密に保証し、既存のニューラルネットワークと組み合わせられるほど汎用的で柔軟なことを証明した。
論文 参考訳(メタデータ) (2021-12-23T03:52:33Z) - Topographic VAEs learn Equivariant Capsules [84.33745072274942]
本稿では, 地理的に整理された潜伏変数を用いた深部生成モデルを効率的に学習するための新しい手法であるTopographic VAEを紹介する。
このようなモデルでは,MNIST上での桁数クラス,幅,スタイルなどの健全な特徴に応じて,その活性化を組織化することが実際に学べることが示される。
我々は、既存の群同変ニューラルネットワークの能力を拡張して、複素変換に近似した同値性を示す。
論文 参考訳(メタデータ) (2021-09-03T09:25:57Z) - LieTransformer: Equivariant self-attention for Lie Groups [49.9625160479096]
群等価ニューラルネットワークは群不変ニューラルネットワークの構成要素として用いられる。
我々は、文学の範囲を、ディープラーニングモデルの顕著な構築ブロックとして現れつつある自己注意にまで広げる。
任意のリー群とその離散部分群に同値なリー自己結合層からなる構造であるリー変換器を提案する。
論文 参考訳(メタデータ) (2020-12-20T11:02:49Z) - A Unifying View on Implicit Bias in Training Linear Neural Networks [31.65006970108761]
線形ニューラルネットワークトレーニングにおける勾配流(無限小ステップサイズの勾配勾配勾配勾配)の暗黙バイアスについて検討する。
本稿では, ニューラルネットワークのテンソルの定式化について検討し, 完全連結型, 対角型, 畳み込み型ネットワークを特殊な場合として提案する。
論文 参考訳(メタデータ) (2020-10-06T06:08:35Z) - Generalizing Convolutional Neural Networks for Equivariance to Lie
Groups on Arbitrary Continuous Data [52.78581260260455]
任意の特定のリー群からの変換に同値な畳み込み層を構築するための一般的な方法を提案する。
同じモデルアーキテクチャを画像、ボール・アンド・スティック分子データ、ハミルトン力学系に適用する。
論文 参考訳(メタデータ) (2020-02-25T17:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。