論文の概要: Deformation Robust Roto-Scale-Translation Equivariant CNNs
- arxiv url: http://arxiv.org/abs/2111.10978v1
- Date: Mon, 22 Nov 2021 03:58:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-24 02:16:55.154785
- Title: Deformation Robust Roto-Scale-Translation Equivariant CNNs
- Title(参考訳): 変形ロバストロトスケール変換同変CNN
- Authors: Liyao Gao, Guang Lin, Wei Zhu
- Abstract要約: グループ同変畳み込みニューラルネットワーク(G-CNN)は,固有対称性を持つ一般化性能を著しく向上させる。
G-CNNの一般的な理論と実践的実装は、回転またはスケーリング変換の下での平面画像に対して研究されている。
- 参考スコア(独自算出の注目度): 10.44236628142169
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Incorporating group symmetry directly into the learning process has proved to
be an effective guideline for model design. By producing features that are
guaranteed to transform covariantly to the group actions on the inputs,
group-equivariant convolutional neural networks (G-CNNs) achieve significantly
improved generalization performance in learning tasks with intrinsic symmetry.
General theory and practical implementation of G-CNNs have been studied for
planar images under either rotation or scaling transformation, but only
individually. We present, in this paper, a roto-scale-translation equivariant
CNN (RST-CNN), that is guaranteed to achieve equivariance jointly over these
three groups via coupled group convolutions. Moreover, as symmetry
transformations in reality are rarely perfect and typically subject to input
deformation, we provide a stability analysis of the equivariance of
representation to input distortion, which motivates the truncated expansion of
the convolutional filters under (pre-fixed) low-frequency spatial modes. The
resulting model provably achieves deformation-robust RST equivariance, i.e.,
the RST symmetry is still "approximately" preserved when the transformation is
"contaminated" by a nuisance data deformation, a property that is especially
important for out-of-distribution generalization. Numerical experiments on
MNIST, Fashion-MNIST, and STL-10 demonstrate that the proposed model yields
remarkable gains over prior arts, especially in the small data regime where
both rotation and scaling variations are present within the data.
- Abstract(参考訳): 群対称性を学習プロセスに直接組み込むことがモデル設計の効果的な指針であることが証明された。
群等価畳み込みニューラルネットワーク(G-CNN)は,入力に対する群作用に共変的に変換することが保証される特徴を生成することにより,固有対称性を持つ学習タスクにおける一般化性能を著しく向上させる。
g-cnnsの一般理論と実用的実装は、回転変換またはスケーリング変換のいずれにおいても、個別にのみ研究されている。
本稿では,これら3つの群を結合した群畳み込みにより同値化することが保証されるロトスケール変換同変CNN(RST-CNN)について述べる。
さらに、実際の対称性変換は完全ではなく、典型的には入力変形の対象となるため、入力歪みに対する表現の同値性の安定性解析を行い、(予め固定された)低空間モード下での畳み込みフィルタの縮小を動機付ける。
結果として得られたモデルは変形-ロバスト rst 等分散(すなわち、rst対称性は、ニュアサンスデータ変形によって変換が「汚染された」ときでも「ほぼ」保存される。
MNIST, Fashion-MNIST, STL-10の数値実験により, 提案モデルが先行技術, 特にデータ内に回転とスケーリングのばらつきが存在する小さなデータ構造において, 顕著な利得が得られることを示した。
関連論文リスト
- Variational Partial Group Convolutions for Input-Aware Partial Equivariance of Rotations and Color-Shifts [21.397064770689795]
グループ同変CNN(G-CNN)は、階層的特徴を同変的に捉える能力から、様々なタスクにおいて有望な有効性を示している。
本稿では,各データインスタンスに特有の部分的等値の変動レベルを捉えるための新しいアプローチとして,変分部分G-CNN(VP G-CNN)を提案する。
本稿では,M67-180,CIFAR10,ColorMNIST,Flowers102など,おもちゃと現実世界の両方のデータセットに対するVP G-CNNの有効性を示す。
論文 参考訳(メタデータ) (2024-07-05T05:52:51Z) - Uniform Transformation: Refining Latent Representation in Variational Autoencoders [7.4316292428754105]
本稿では,不規則な潜伏分布に対応するために,新しい適応型3段階一様変換(UT)モジュールを提案する。
この手法は不規則分布を潜在空間の均一分布に再構成することにより、潜在表現の絡み合いと解釈可能性を大幅に向上させる。
実験により,提案するUTモジュールの有効性を実証し,ベンチマークデータセット間の絡み合いの指標を改良した。
論文 参考訳(メタデータ) (2024-07-02T21:46:23Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Equivariant Mesh Attention Networks [10.517110532297021]
上述したすべての変換にほぼ同値なメッシュデータに対する注意に基づくアーキテクチャを提案する。
提案したアーキテクチャは,これらの局所的・言語的変換に対して同変であり,従って堅牢であることを確認した。
論文 参考訳(メタデータ) (2022-05-21T19:53:14Z) - Learning Symmetric Embeddings for Equivariant World Models [9.781637768189158]
入力空間(例えば画像)を符号化する学習対称埋め込みネットワーク(SEN)を提案する。
このネットワークは、同変のタスクネットワークでエンドツーエンドにトレーニングして、明示的に対称な表現を学ぶことができる。
実験により、SENは複素対称性表現を持つデータへの同変ネットワークの適用を促進することを示した。
論文 参考訳(メタデータ) (2022-04-24T22:31:52Z) - Leveraging Equivariant Features for Absolute Pose Regression [9.30597356471664]
変換と回転の同変である畳み込みニューラルネットワークは,カメラの動きの表現を直接特徴空間に誘導することを示す。
次に、この幾何学的性質により、画像平面保存変換の全グループの下でトレーニングデータを暗黙的に増大させることができることを示す。
論文 参考訳(メタデータ) (2022-04-05T12:44:20Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Revisiting Transformation Invariant Geometric Deep Learning: Are Initial
Representations All You Need? [80.86819657126041]
変換不変および距離保存初期表現は変換不変性を達成するのに十分であることを示す。
具体的には、多次元スケーリングを変更することで、変換不変かつ距離保存された初期点表現を実現する。
我々は、TinvNNが変換不変性を厳密に保証し、既存のニューラルネットワークと組み合わせられるほど汎用的で柔軟なことを証明した。
論文 参考訳(メタデータ) (2021-12-23T03:52:33Z) - Topographic VAEs learn Equivariant Capsules [84.33745072274942]
本稿では, 地理的に整理された潜伏変数を用いた深部生成モデルを効率的に学習するための新しい手法であるTopographic VAEを紹介する。
このようなモデルでは,MNIST上での桁数クラス,幅,スタイルなどの健全な特徴に応じて,その活性化を組織化することが実際に学べることが示される。
我々は、既存の群同変ニューラルネットワークの能力を拡張して、複素変換に近似した同値性を示す。
論文 参考訳(メタデータ) (2021-09-03T09:25:57Z) - Learning Invariances in Neural Networks [51.20867785006147]
ネットワークパラメータや拡張パラメータに関して,拡張性よりも分布をパラメータ化し,トレーニング損失を同時に最適化する方法を示す。
画像分類,回帰,セグメンテーション,分子特性予測における不均一性の正確なセットと範囲を,拡張の広い空間から復元することができる。
論文 参考訳(メタデータ) (2020-10-22T17:18:48Z) - Generalizing Convolutional Neural Networks for Equivariance to Lie
Groups on Arbitrary Continuous Data [52.78581260260455]
任意の特定のリー群からの変換に同値な畳み込み層を構築するための一般的な方法を提案する。
同じモデルアーキテクチャを画像、ボール・アンド・スティック分子データ、ハミルトン力学系に適用する。
論文 参考訳(メタデータ) (2020-02-25T17:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。