論文の概要: Roto-Translation Equivariant Super-Resolution of Two-Dimensional Flows
Using Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2202.11099v1
- Date: Tue, 22 Feb 2022 07:07:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-24 16:26:20.325254
- Title: Roto-Translation Equivariant Super-Resolution of Two-Dimensional Flows
Using Convolutional Neural Networks
- Title(参考訳): 畳み込みニューラルネットワークを用いた2次元流れのロート変換同変超解法
- Authors: Yuki Yasuda
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、画像の色のような方向を持たない量としてベクトルを処理することが多い。
本研究では,ベクトルを幾何学的対象として扱う場合の2次元流体への超解像効果について検討した。
- 参考スコア(独自算出の注目度): 0.15229257192293202
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional neural networks (CNNs) often process vectors as quantities
having no direction like colors in images. This study investigates the effect
of treating vectors as geometrical objects in terms of super-resolution of
velocity on two-dimensional fluids. Vector is distinguished from scalar by the
transformation law associated with a change in basis, which can be incorporated
as the prior knowledge using the equivariant deep learning. We convert existing
CNNs into equivariant ones by making each layer equivariant with respect to
rotation and translation. The training data in the low- and high-resolution are
generated with the downsampling or the spectral nudging. When the data inherit
the rotational symmetry, the equivariant CNNs show comparable accuracy with the
non-equivariant ones. Since the number of parameters is smaller in the
equivariant CNNs, these models are trainable with a smaller size of the data.
In this case, the transformation law of vector should be incorporated as the
prior knowledge, where vector is explicitly treated as a quantity having
direction. Two examples demonstrate that the symmetry of the data can be
broken. In the first case, a downsampling method makes the correspondence
between low- and high-resolution patterns dependent on the orientation. In the
second case, the input data are insufficient to recognize the rotation of
coordinates in the experiment with the spectral nudging. In both cases, the
accuracy of the CNNs deteriorates if the equivariance is forced to be imposed,
and the usage of conventional CNNs may be justified even though vector is
processed as a quantity having no direction.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、画像の色のような方向を持たない量としてベクトルを処理することが多い。
本研究では,ベクトルを幾何学的対象として扱う場合の2次元流体への超解像効果について検討した。
ベクトルは基底の変化に伴う変換法則によってスカラーと区別され、同変深層学習を用いて事前知識として組み込むことができる。
既存のCNNを、回転と変換に関して各層を同変させることにより、同変に変換する。
低解像度及び高解像度のトレーニングデータは、ダウンサンプリングまたはスペクトルヌーディングによって生成される。
データが回転対称性を継承すると、同値な cnn は非同値なものと同等の精度を示す。
パラメータの数は同変CNNでは小さいので、これらのモデルはデータのサイズを小さくして訓練することができる。
この場合、ベクトルの変換法則は、ベクトルが方向を持つ量として明示的に扱われる事前知識として組み入れるべきである。
2つの例は、データの対称性が破れることを示している。
最初の例では、ダウンサンプリング法は、方向に依存する低分解能パターンと高分解能パターンの対応性を与える。
第2のケースでは、入力データは、スペクトルナジングによる実験における座標の回転を認識するために不十分である。
どちらの場合も、等価性を強制すればCNNの精度は低下し、ベクトルを方向のない量として処理しても従来のCNNの使用は正当化される。
関連論文リスト
- Revisiting Data Augmentation for Rotational Invariance in Convolutional
Neural Networks [0.29127054707887967]
画像分類のためのCNNにおける回転不変性について検討する。
実験により、データ拡張だけで訓練されたネットワークは、通常の非回転の場合と同様に、回転した画像の分類がほぼ可能であることが示された。
論文 参考訳(メタデータ) (2023-10-12T15:53:24Z) - The Lie Derivative for Measuring Learned Equivariance [84.29366874540217]
我々は、CNN、トランスフォーマー、ミキサーアーキテクチャにまたがる数百の事前訓練されたモデルの同値性について検討する。
その結果,不等式違反の多くは,不等式などのユビキタスネットワーク層における空間エイリアスに関連付けられることがわかった。
例えば、トランスはトレーニング後の畳み込みニューラルネットワークよりも同種である。
論文 参考訳(メタデータ) (2022-10-06T15:20:55Z) - Learning Invariant Representations for Equivariant Neural Networks Using
Orthogonal Moments [9.680414207552722]
標準畳み込みニューラルネットワーク(CNN)の畳み込み層は、翻訳と等価である。
近年,従来のCNNの層を同変畳み込み,プーリング,バッチ正規化に置き換えた新しいCNNのクラスが提案されている。
論文 参考訳(メタデータ) (2022-09-22T11:48:39Z) - Equivariance Discovery by Learned Parameter-Sharing [153.41877129746223]
データから解釈可能な等価性を発見する方法について検討する。
具体的には、モデルのパラメータ共有方式に対する最適化問題として、この発見プロセスを定式化する。
また,ガウスデータの手法を理論的に解析し,研究された発見スキームとオラクルスキームの間の平均2乗ギャップを限定する。
論文 参考訳(メタデータ) (2022-04-07T17:59:19Z) - Revisiting Transformation Invariant Geometric Deep Learning: Are Initial
Representations All You Need? [80.86819657126041]
変換不変および距離保存初期表現は変換不変性を達成するのに十分であることを示す。
具体的には、多次元スケーリングを変更することで、変換不変かつ距離保存された初期点表現を実現する。
我々は、TinvNNが変換不変性を厳密に保証し、既存のニューラルネットワークと組み合わせられるほど汎用的で柔軟なことを証明した。
論文 参考訳(メタデータ) (2021-12-23T03:52:33Z) - Quantised Transforming Auto-Encoders: Achieving Equivariance to
Arbitrary Transformations in Deep Networks [23.673155102696338]
畳み込みニューラルネットワーク(CNN)は画像翻訳と等価である。
埋め込みは任意の等式関係を同時に従うオートエンコーダアーキテクチャを提案する。
いくつかのデータセット上で入力画像の変換版の再レンダリングに成功した結果を示す。
論文 参考訳(メタデータ) (2021-11-25T02:26:38Z) - Nonlinearities in Steerable SO(2)-Equivariant CNNs [7.552100672006172]
我々は,SO(2)の表現に対する非線形性の影響を照らし出すために調和歪み解析を適用した。
我々は、非線形変換されたアクティベーションの表現を計算するための新しいFFTベースのアルゴリズムを開発した。
2Dおよび3Dデータを用いた実験では、連続対称性と正確な同値性において、精度の点で最先端と良好に比較できる結果が得られる。
論文 参考訳(メタデータ) (2021-09-14T17:53:45Z) - Group Equivariant Subsampling [60.53371517247382]
サブサンプリングは、プールやストライド畳み込みの形で畳み込みニューラルネットワーク(CNN)で使用される。
まず、正確な翻訳同変CNNを構築するために使用できる翻訳同変サブサンプリング/アップサンプリング層を導入する。
次に、これらの層を一般群への変換を超えて一般化し、したがって群同変部分サンプリング/アップサンプリングを提案する。
論文 参考訳(メタデータ) (2021-06-10T16:14:00Z) - PDO-e$\text{S}^\text{2}$CNNs: Partial Differential Operator Based
Equivariant Spherical CNNs [77.53203546732664]
我々は偏微分演算子を用いて球等価CNN, PDO-e$textStext2$CNNを設計する。
実験では、pdo-e$textstext2$cnnsはパラメータ効率が高く、いくつかのタスクで他の球面cnnを大きく上回る。
論文 参考訳(メタデータ) (2021-04-08T07:54:50Z) - Learning Equivariant Representations [10.745691354609738]
畳み込みニューラルネットワーク(CNN)はこの原理の成功例である。
対称性の群で定義される異なる変換に対する同変モデルを提案する。
これらのモデルはデータの対称性を利用して、サンプルとモデルの複雑さを減らし、一般化性能を向上させる。
論文 参考訳(メタデータ) (2020-12-04T18:46:17Z) - Learning Invariances in Neural Networks [51.20867785006147]
ネットワークパラメータや拡張パラメータに関して,拡張性よりも分布をパラメータ化し,トレーニング損失を同時に最適化する方法を示す。
画像分類,回帰,セグメンテーション,分子特性予測における不均一性の正確なセットと範囲を,拡張の広い空間から復元することができる。
論文 参考訳(メタデータ) (2020-10-22T17:18:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。