論文の概要: What Affects Learned Equivariance in Deep Image Recognition Models?
- arxiv url: http://arxiv.org/abs/2304.02628v2
- Date: Fri, 7 Apr 2023 14:38:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-10 14:15:14.079826
- Title: What Affects Learned Equivariance in Deep Image Recognition Models?
- Title(参考訳): 深部画像認識モデルにおける学習等価性の影響
- Authors: Robert-Jan Bruintjes, Tomasz Motyka, Jan van Gemert
- Abstract要約: ImageNet上で,学習した翻訳の等価性と検証精度の相関関係を示す証拠が発見された。
データ拡張、モデルのキャパシティの低減、畳み込みの形での帰納バイアスは、ニューラルネットワークにおいてより高い学習等価性をもたらす。
- 参考スコア(独自算出の注目度): 10.590129221143222
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Equivariance w.r.t. geometric transformations in neural networks improves
data efficiency, parameter efficiency and robustness to out-of-domain
perspective shifts. When equivariance is not designed into a neural network,
the network can still learn equivariant functions from the data. We quantify
this learned equivariance, by proposing an improved measure for equivariance.
We find evidence for a correlation between learned translation equivariance and
validation accuracy on ImageNet. We therefore investigate what can increase the
learned equivariance in neural networks, and find that data augmentation,
reduced model capacity and inductive bias in the form of convolutions induce
higher learned equivariance in neural networks.
- Abstract(参考訳): ニューラルネットワークにおける等分散 w.r.t. 幾何変換は、領域外視点シフトに対するデータ効率、パラメータ効率、堅牢性を改善する。
等価性がニューラルネットワークに設計されていない場合、ネットワークはデータから同変関数を学習することができる。
我々は、この学習された等分散を、改良された等分散尺度を提案することによって定量化する。
ImageNet上で,学習した翻訳の等価性と検証精度の相関関係を示す。
そこで,ニューラルネットワークにおける学習等価性を増加させる要因について検討し,畳み込みの形でのデータ拡張,モデル容量の低減,帰納的バイアスがニューラルネットワークの学習等価性を高めることを見出した。
関連論文リスト
- Revisiting Data Augmentation for Rotational Invariance in Convolutional
Neural Networks [0.29127054707887967]
画像分類のためのCNNにおける回転不変性について検討する。
実験により、データ拡張だけで訓練されたネットワークは、通常の非回転の場合と同様に、回転した画像の分類がほぼ可能であることが示された。
論文 参考訳(メタデータ) (2023-10-12T15:53:24Z) - The Lie Derivative for Measuring Learned Equivariance [84.29366874540217]
我々は、CNN、トランスフォーマー、ミキサーアーキテクチャにまたがる数百の事前訓練されたモデルの同値性について検討する。
その結果,不等式違反の多くは,不等式などのユビキタスネットワーク層における空間エイリアスに関連付けられることがわかった。
例えば、トランスはトレーニング後の畳み込みニューラルネットワークよりも同種である。
論文 参考訳(メタデータ) (2022-10-06T15:20:55Z) - On the Strong Correlation Between Model Invariance and Generalization [54.812786542023325]
一般化は、見えないデータを分類するモデルの能力をキャプチャする。
不変性はデータの変換におけるモデル予測の一貫性を測定する。
データセット中心の視点から、あるモデルの精度と不変性は異なるテストセット上で線形に相関している。
論文 参考訳(メタデータ) (2022-07-14T17:08:25Z) - Equivariance Discovery by Learned Parameter-Sharing [153.41877129746223]
データから解釈可能な等価性を発見する方法について検討する。
具体的には、モデルのパラメータ共有方式に対する最適化問題として、この発見プロセスを定式化する。
また,ガウスデータの手法を理論的に解析し,研究された発見スキームとオラクルスキームの間の平均2乗ギャップを限定する。
論文 参考訳(メタデータ) (2022-04-07T17:59:19Z) - Grounding inductive biases in natural images:invariance stems from
variations in data [20.432568247732206]
本研究では,実際のデータセットであるImageNetの変動要因について検討する。
標準的な拡張は、翻訳とスケールの正確な組み合わせに依存していることを示す。
ImageNetの変動の主な要因は外見に大きく関係していることがわかりました。
論文 参考訳(メタデータ) (2021-06-09T14:58:57Z) - Learning Invariances in Neural Networks [51.20867785006147]
ネットワークパラメータや拡張パラメータに関して,拡張性よりも分布をパラメータ化し,トレーニング損失を同時に最適化する方法を示す。
画像分類,回帰,セグメンテーション,分子特性予測における不均一性の正確なセットと範囲を,拡張の広い空間から復元することができる。
論文 参考訳(メタデータ) (2020-10-22T17:18:48Z) - Category-Learning with Context-Augmented Autoencoder [63.05016513788047]
実世界のデータの解釈可能な非冗長表現を見つけることは、機械学習の鍵となる問題の一つである。
本稿では,オートエンコーダのトレーニングにデータ拡張を利用する新しい手法を提案する。
このような方法で変分オートエンコーダを訓練し、補助ネットワークによって変換結果を予測できるようにする。
論文 参考訳(メタデータ) (2020-10-10T14:04:44Z) - Generalizing Convolutional Neural Networks for Equivariance to Lie
Groups on Arbitrary Continuous Data [52.78581260260455]
任意の特定のリー群からの変換に同値な畳み込み層を構築するための一般的な方法を提案する。
同じモデルアーキテクチャを画像、ボール・アンド・スティック分子データ、ハミルトン力学系に適用する。
論文 参考訳(メタデータ) (2020-02-25T17:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。