論文の概要: Deep Neural Networks with Efficient Guaranteed Invariances
- arxiv url: http://arxiv.org/abs/2303.01567v1
- Date: Thu, 2 Mar 2023 20:44:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-06 17:07:12.178974
- Title: Deep Neural Networks with Efficient Guaranteed Invariances
- Title(参考訳): 効率のよい不変性を有するディープニューラルネットワーク
- Authors: Matthias Rath, Alexandru Paul Condurache
- Abstract要約: 我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 77.99182201815763
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We address the problem of improving the performance and in particular the
sample complexity of deep neural networks by enforcing and guaranteeing
invariances to symmetry transformations rather than learning them from data.
Group-equivariant convolutions are a popular approach to obtain equivariant
representations. The desired corresponding invariance is then imposed using
pooling operations. For rotations, it has been shown that using invariant
integration instead of pooling further improves the sample complexity. In this
contribution, we first expand invariant integration beyond rotations to flips
and scale transformations. We then address the problem of incorporating
multiple desired invariances into a single network. For this purpose, we
propose a multi-stream architecture, where each stream is invariant to a
different transformation such that the network can simultaneously benefit from
multiple invariances. We demonstrate our approach with successful experiments
on Scaled-MNIST, SVHN, CIFAR-10 and STL-10.
- Abstract(参考訳): 我々は、データから学習するのではなく、対称性変換に対する不変性を強制し保証することで、ディープニューラルネットワークの性能、特にサンプルの複雑さを改善する問題に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
所望の不変性は、プーリング演算によって課される。
回転の場合、プールではなく不変積分を用いることでサンプルの複雑さがさらに向上することが示されている。
この貢献により、まず回転からフリップ、スケール変換への不変積分を拡大する。
次に、複数の所望の不変性を単一ネットワークに組み込む問題に対処する。
そこで本研究では,各ストリームが異なる変換に不変であり,ネットワークが同時に複数の不変性から恩恵を受けることができるマルチストリームアーキテクチャを提案する。
提案手法は,Scaled-MNIST,SVHN,CIFAR-10,STL-10について実験を行った。
関連論文リスト
- SO(2) and O(2) Equivariance in Image Recognition with
Bessel-Convolutional Neural Networks [63.24965775030674]
この研究はベッセル畳み込みニューラルネットワーク(B-CNN)の開発を示す
B-CNNは、ベッセル関数に基づく特定の分解を利用して、画像とフィルタの間のキー操作を変更する。
他の手法と比較して,B-CNNの性能を評価するために検討を行った。
論文 参考訳(メタデータ) (2023-04-18T18:06:35Z) - Equivariance versus Augmentation for Spherical Images [0.7388859384645262]
球面画像に適用した畳み込みニューラルネットワーク(CNN)における回転同値の役割を解析する。
我々は、S2CNNとして知られるグループ同変ネットワークと、データ増大量で訓練された標準非同変CNNの性能を比較した。
論文 参考訳(メタデータ) (2022-02-08T16:49:30Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Revisiting Transformation Invariant Geometric Deep Learning: Are Initial
Representations All You Need? [80.86819657126041]
変換不変および距離保存初期表現は変換不変性を達成するのに十分であることを示す。
具体的には、多次元スケーリングを変更することで、変換不変かつ距離保存された初期点表現を実現する。
我々は、TinvNNが変換不変性を厳密に保証し、既存のニューラルネットワークと組み合わせられるほど汎用的で柔軟なことを証明した。
論文 参考訳(メタデータ) (2021-12-23T03:52:33Z) - Implicit Equivariance in Convolutional Networks [1.911678487931003]
IEN(Implicitly Equivariant Networks)は標準CNNモデルの異なる層で同変を誘導する。
IENは、高速な推論速度を提供しながら、最先端の回転同変追跡法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-28T14:44:17Z) - Frame Averaging for Invariant and Equivariant Network Design [50.87023773850824]
フレーム平均化(FA)は、既知の(バックボーン)アーキテクチャを新しい対称性タイプに不変あるいは同変に適応するためのフレームワークである。
FAモデルが最大表現力を持つことを示す。
我々は,新しいユニバーサルグラフニューラルネット(GNN),ユニバーサルユークリッド運動不変点クラウドネットワーク,およびユークリッド運動不変メッセージパッシング(MP)GNNを提案する。
論文 参考訳(メタデータ) (2021-10-07T11:05:23Z) - Training or Architecture? How to Incorporate Invariance in Neural
Networks [14.162739081163444]
本稿では,グループ行動に関して,ネットワークアーキテクチャを確実に不変化する手法を提案する。
簡単に言えば、実際のネットワークにデータを送る前に、可能なトランスフォーメーションを“無効化”するつもりです。
このような手法の特性を解析し、等変ネットワークに拡張し、その利点を頑健さと計算効率の両面からいくつかの数値例で示す。
論文 参考訳(メタデータ) (2021-06-18T10:31:00Z) - Group Equivariant Subsampling [60.53371517247382]
サブサンプリングは、プールやストライド畳み込みの形で畳み込みニューラルネットワーク(CNN)で使用される。
まず、正確な翻訳同変CNNを構築するために使用できる翻訳同変サブサンプリング/アップサンプリング層を導入する。
次に、これらの層を一般群への変換を超えて一般化し、したがって群同変部分サンプリング/アップサンプリングを提案する。
論文 参考訳(メタデータ) (2021-06-10T16:14:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。