論文の概要: Learning Canonical Transformations
- arxiv url: http://arxiv.org/abs/2011.08822v1
- Date: Tue, 17 Nov 2020 18:41:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 15:44:06.838296
- Title: Learning Canonical Transformations
- Title(参考訳): 標準変換の学習
- Authors: Zachary Dulberg and Jonathan Cohen
- Abstract要約: 人間は、任意の特定の対象に縛られることなく一般化をサポートする正準幾何学変換の集合を理解する。
我々は、ニューラルネットワークモデルがこれらの変換をピクセル空間で学習するのに役立つ誘導バイアスを探索する。
高いトレーニングセットの多様性は、目に見えない形やスケールへの翻訳の外挿に十分である。
- 参考スコア(独自算出の注目度): 1.3537117504260623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans understand a set of canonical geometric transformations (such as
translation and rotation) that support generalization by being untethered to
any specific object. We explore inductive biases that help a neural network
model learn these transformations in pixel space in a way that can generalize
out-of-domain. Specifically, we find that high training set diversity is
sufficient for the extrapolation of translation to unseen shapes and scales,
and that an iterative training scheme achieves significant extrapolation of
rotation in time.
- Abstract(参考訳): 人間は、特定の対象に縛られずに一般化をサポートする(翻訳や回転など)一連の標準幾何学的変換を理解する。
我々は、ニューラルネットワークモデルがこれらの変換をピクセル空間で学習するのに役立つ帰納的バイアスをドメイン外を一般化できる方法で検討する。
特に,高訓練集合の多様性は,未発見の形状やスケールへの翻訳の補間に十分であり,反復訓練は時間内回転の大幅な補間を実現する。
関連論文リスト
- Affine Invariance in Continuous-Domain Convolutional Neural Networks [6.019182604573028]
本研究では,連続領域畳み込みニューラルネットワークにおけるアフィン不変性について検討する。
アフィン変換における2つの入力信号の類似性を評価するための新しい基準を導入する。
私たちの研究は最終的には、実用的なディープラーニングパイプラインが扱える幾何学的変換の範囲を広げることができます。
論文 参考訳(メタデータ) (2023-11-13T14:17:57Z) - Orthogonal Transforms in Neural Networks Amount to Effective
Regularization [0.0]
非線形システム同定におけるニューラルネットワークの適用について考察する。
そのような構造が普遍近似であることを示す。
特に、フーリエ変換を用いたそのような構造は直交サポートのない同値モデルよりも優れていることを実証的に示す。
論文 参考訳(メタデータ) (2023-05-10T17:52:33Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - Shape-Pose Disentanglement using SE(3)-equivariant Vector Neurons [59.83721247071963]
本研究では,点雲を標準形状表現に符号化するための教師なし手法を提案する。
エンコーダは安定で一貫性があり、形状のエンコーダは純粋にポーズ不変である。
抽出された回転と変換は、同じクラスの異なる入力形状を共通の標準ポーズに意味的に整合させることができる。
論文 参考訳(メタデータ) (2022-04-03T21:00:44Z) - Revisiting Transformation Invariant Geometric Deep Learning: Are Initial
Representations All You Need? [80.86819657126041]
変換不変および距離保存初期表現は変換不変性を達成するのに十分であることを示す。
具体的には、多次元スケーリングを変更することで、変換不変かつ距離保存された初期点表現を実現する。
我々は、TinvNNが変換不変性を厳密に保証し、既存のニューラルネットワークと組み合わせられるほど汎用的で柔軟なことを証明した。
論文 参考訳(メタデータ) (2021-12-23T03:52:33Z) - Topographic VAEs learn Equivariant Capsules [84.33745072274942]
本稿では, 地理的に整理された潜伏変数を用いた深部生成モデルを効率的に学習するための新しい手法であるTopographic VAEを紹介する。
このようなモデルでは,MNIST上での桁数クラス,幅,スタイルなどの健全な特徴に応じて,その活性化を組織化することが実際に学べることが示される。
我々は、既存の群同変ニューラルネットワークの能力を拡張して、複素変換に近似した同値性を示す。
論文 参考訳(メタデータ) (2021-09-03T09:25:57Z) - Augmenting Implicit Neural Shape Representations with Explicit
Deformation Fields [95.39603371087921]
入射神経表現は、ニューラルネットワークのゼロレベルセットとして形状収集を学ぶための最近のアプローチである。
我々は,暗黙的ニューラル表現に対する変形認識正規化を提唱し,遅延コードの変化として可塑性変形を生成することを目的とした。
論文 参考訳(メタデータ) (2021-08-19T22:07:08Z) - Generalizing Convolutional Neural Networks for Equivariance to Lie
Groups on Arbitrary Continuous Data [52.78581260260455]
任意の特定のリー群からの変換に同値な畳み込み層を構築するための一般的な方法を提案する。
同じモデルアーキテクチャを画像、ボール・アンド・スティック分子データ、ハミルトン力学系に適用する。
論文 参考訳(メタデータ) (2020-02-25T17:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。