論文の概要: Learning Equivariances and Partial Equivariances from Data
- arxiv url: http://arxiv.org/abs/2110.10211v1
- Date: Tue, 19 Oct 2021 19:17:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-22 16:38:00.244934
- Title: Learning Equivariances and Partial Equivariances from Data
- Title(参考訳): データからの学習等分散と部分等分散
- Authors: David W. Romero, Suhas Lohit
- Abstract要約: 群同変畳み込みニューラルネットワーク(G-CNN)は、選択した対称性を尊重する特徴を制約し、これらの対称性がデータに現れるとより一般化する。
本稿では,各層間のデータから部分的および完全同値を学習可能な同変ネットワーク群であるpartial G-CNNを紹介する。
- 参考スコア(独自算出の注目度): 11.548853370822345
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Group equivariant Convolutional Neural Networks (G-CNNs) constrain features
to respect the chosen symmetries, and lead to better generalization when these
symmetries appear in the data. However, if the chosen symmetries are not
present, group equivariant architectures lead to overly constrained models and
worse performance. Frequently, the distribution of the data can be better
represented by a subset of a group than by the group as a whole, e.g.,
rotations in $[-90^{\circ}, 90^{\circ}]$. In such cases, a model that respects
equivariance partially is better suited to represent the data. Moreover,
relevant symmetries may differ for low and high-level features, e.g., edge
orientations in a face, and face poses relative to the camera. As a result, the
optimal level of equivariance may differ per layer. In this work, we introduce
Partial G-CNNs: a family of equivariant networks able to learn partial and full
equivariances from data at every layer end-to-end. Partial G-CNNs retain full
equivariance whenever beneficial, e.g., for rotated MNIST, but are able to
restrict it whenever it becomes harmful, e.g., for 6~/~9 or natural image
classification. Partial G-CNNs perform on par with G-CNNs when full
equivariance is necessary, and outperform them otherwise. Our method is
applicable to discrete groups, continuous groups and combinations thereof.
- Abstract(参考訳): 群同変畳み込みニューラルネットワーク(G-CNN)は、選択した対称性を尊重する特徴を制約し、これらの対称性がデータに現れるとより一般化する。
しかし、選択された対称性が存在しない場合、群同変アーキテクチャは過度に制約されたモデルにつながり、パフォーマンスが悪化する。
多くの場合、データの分布はグループ全体、例えば$[-90^{\circ}, 90^{\circ}]$の回転よりもグループの部分集合によって表現される。
そのような場合、同値を部分的に尊重するモデルはデータを表現するのに適している。
さらに、例えば、顔のエッジ方向やカメラに対する顔ポーズなど、低レベルおよび高レベルの特徴については、関連する対称性が異なる場合がある。
その結果、最適等分散のレベルは層ごとに異なる可能性がある。
本稿では,各層でデータから部分的かつ完全な等分散を学習できる同変ネットワークの族である部分的g-cnnsを導入する。
部分的なG-CNNは、例えば回転したMNISTに対して有益であればいつでも完全同値を保持するが、有害となる場合、例えば6~/〜9または自然画像分類のために制限することができる。
部分的なG-CNNは、完全同値が必要な場合、G-CNNと同等に動作し、それ以外は性能が向上する。
本手法は離散群,連続群,それらの組合せに適用できる。
関連論文リスト
- Symmetry Discovery for Different Data Types [52.2614860099811]
等価ニューラルネットワークは、そのアーキテクチャに対称性を取り入れ、より高度な一般化性能を実現する。
本稿では,タスクの入出力マッピングを近似したトレーニングニューラルネットワークによる対称性発見手法であるLieSDを提案する。
我々は,2体問題,慣性行列予測のモーメント,トップクォークタグ付けといった課題におけるLieSDの性能を検証した。
論文 参考訳(メタデータ) (2024-10-13T13:39:39Z) - Variational Partial Group Convolutions for Input-Aware Partial Equivariance of Rotations and Color-Shifts [21.397064770689795]
グループ同変CNN(G-CNN)は、階層的特徴を同変的に捉える能力から、様々なタスクにおいて有望な有効性を示している。
本稿では,各データインスタンスに特有の部分的等値の変動レベルを捉えるための新しいアプローチとして,変分部分G-CNN(VP G-CNN)を提案する。
本稿では,M67-180,CIFAR10,ColorMNIST,Flowers102など,おもちゃと現実世界の両方のデータセットに対するVP G-CNNの有効性を示す。
論文 参考訳(メタデータ) (2024-07-05T05:52:51Z) - A Probabilistic Approach to Learning the Degree of Equivariance in Steerable CNNs [5.141137421503899]
ステアブル畳み込みニューラルネットワーク(SCNN)は、幾何学的対称性をモデル化することによってタスク性能を向上させる。
しかし、未知あるいは様々な対称性は、過剰に制約された重量と性能を低下させる可能性がある。
本稿では,SCNNの等価度を学習するための確率的手法を提案する。
論文 参考訳(メタデータ) (2024-06-06T10:45:19Z) - Architectural Optimization over Subgroups for Equivariant Neural
Networks [0.0]
準同値緩和同型と$[G]$-mixed同変層を提案し、部分群上の同値制約で演算する。
進化的および微分可能なニューラルアーキテクチャ探索(NAS)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-11T14:37:29Z) - Equivariance Discovery by Learned Parameter-Sharing [153.41877129746223]
データから解釈可能な等価性を発見する方法について検討する。
具体的には、モデルのパラメータ共有方式に対する最適化問題として、この発見プロセスを定式化する。
また,ガウスデータの手法を理論的に解析し,研究された発見スキームとオラクルスキームの間の平均2乗ギャップを限定する。
論文 参考訳(メタデータ) (2022-04-07T17:59:19Z) - Frame Averaging for Invariant and Equivariant Network Design [50.87023773850824]
フレーム平均化(FA)は、既知の(バックボーン)アーキテクチャを新しい対称性タイプに不変あるいは同変に適応するためのフレームワークである。
FAモデルが最大表現力を持つことを示す。
我々は,新しいユニバーサルグラフニューラルネット(GNN),ユニバーサルユークリッド運動不変点クラウドネットワーク,およびユークリッド運動不変メッセージパッシング(MP)GNNを提案する。
論文 参考訳(メタデータ) (2021-10-07T11:05:23Z) - Group Equivariant Subsampling [60.53371517247382]
サブサンプリングは、プールやストライド畳み込みの形で畳み込みニューラルネットワーク(CNN)で使用される。
まず、正確な翻訳同変CNNを構築するために使用できる翻訳同変サブサンプリング/アップサンプリング層を導入する。
次に、これらの層を一般群への変換を超えて一般化し、したがって群同変部分サンプリング/アップサンプリングを提案する。
論文 参考訳(メタデータ) (2021-06-10T16:14:00Z) - Symmetry-driven graph neural networks [1.713291434132985]
ノード座標に影響を及ぼすいくつかの変換に同値なグラフネットワークアーキテクチャを2つ導入する。
我々はこれらの機能を$n$次元の幾何学的オブジェクトからなる合成データセット上で実証する。
論文 参考訳(メタデータ) (2021-05-28T18:54:12Z) - Group Equivariant Conditional Neural Processes [30.134634059773703]
群同変条件ニューラルプロセス(EquivCNP)を提案する。
EquivCNPは1次元回帰タスクにおいて従来の条件付きニューラルプロセスに匹敵する性能を示す。
論文 参考訳(メタデータ) (2021-02-17T13:50:07Z) - Learning Invariances in Neural Networks [51.20867785006147]
ネットワークパラメータや拡張パラメータに関して,拡張性よりも分布をパラメータ化し,トレーニング損失を同時に最適化する方法を示す。
画像分類,回帰,セグメンテーション,分子特性予測における不均一性の正確なセットと範囲を,拡張の広い空間から復元することができる。
論文 参考訳(メタデータ) (2020-10-22T17:18:48Z) - Generalizing Convolutional Neural Networks for Equivariance to Lie
Groups on Arbitrary Continuous Data [52.78581260260455]
任意の特定のリー群からの変換に同値な畳み込み層を構築するための一般的な方法を提案する。
同じモデルアーキテクチャを画像、ボール・アンド・スティック分子データ、ハミルトン力学系に適用する。
論文 参考訳(メタデータ) (2020-02-25T17:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。