論文の概要: The Lie Derivative for Measuring Learned Equivariance
- arxiv url: http://arxiv.org/abs/2210.02984v2
- Date: Tue, 18 Jun 2024 15:01:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-20 05:43:26.236025
- Title: The Lie Derivative for Measuring Learned Equivariance
- Title(参考訳): 学習した等価性を測定するためのリー導出剤
- Authors: Nate Gruver, Marc Finzi, Micah Goldblum, Andrew Gordon Wilson,
- Abstract要約: 我々は、CNN、トランスフォーマー、ミキサーアーキテクチャにまたがる数百の事前訓練されたモデルの同値性について検討する。
その結果,不等式違反の多くは,不等式などのユビキタスネットワーク層における空間エイリアスに関連付けられることがわかった。
例えば、トランスはトレーニング後の畳み込みニューラルネットワークよりも同種である。
- 参考スコア(独自算出の注目度): 84.29366874540217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Equivariance guarantees that a model's predictions capture key symmetries in data. When an image is translated or rotated, an equivariant model's representation of that image will translate or rotate accordingly. The success of convolutional neural networks has historically been tied to translation equivariance directly encoded in their architecture. The rising success of vision transformers, which have no explicit architectural bias towards equivariance, challenges this narrative and suggests that augmentations and training data might also play a significant role in their performance. In order to better understand the role of equivariance in recent vision models, we introduce the Lie derivative, a method for measuring equivariance with strong mathematical foundations and minimal hyperparameters. Using the Lie derivative, we study the equivariance properties of hundreds of pretrained models, spanning CNNs, transformers, and Mixer architectures. The scale of our analysis allows us to separate the impact of architecture from other factors like model size or training method. Surprisingly, we find that many violations of equivariance can be linked to spatial aliasing in ubiquitous network layers, such as pointwise non-linearities, and that as models get larger and more accurate they tend to display more equivariance, regardless of architecture. For example, transformers can be more equivariant than convolutional neural networks after training.
- Abstract(参考訳): 等価性は、モデルの予測がデータのキー対称性をキャプチャすることを保証します。
画像が翻訳または回転されると、その画像の同変モデルの表現はそれに従って翻訳または回転する。
畳み込みニューラルネットワークの成功は、歴史的に彼らのアーキテクチャで直接符号化された翻訳等価性と結び付けられてきた。
ビジョントランスフォーマーの成功は、均等性に対する明確なアーキテクチャバイアスを持たないが、この物語に挑戦し、拡張とトレーニングデータも彼らのパフォーマンスに重要な役割を果たすかもしれないことを示唆している。
近年のビジョンモデルにおける等分散の役割をよりよく理解するために、強い数学的基礎と極小ハイパーパラメータで等分散を測定する方法であるリー微分を導入する。
リー微分を用いて、CNN、トランスフォーマー、ミキサーアーキテクチャにまたがる数百の事前訓練されたモデルの同値性について検討する。
分析の規模によって、アーキテクチャの影響を、モデルのサイズやトレーニング方法といった他の要因から切り離すことができます。
意外なことに、不等値の多くの違反は、点方向の非線形性のようなユビキタスネットワーク層における空間エイリアスと結びつくことができ、モデルがより大きく正確になるにつれて、アーキテクチャに関係なく、より等値性を示す傾向にある。
例えば、トランスはトレーニング後の畳み込みニューラルネットワークよりも同種である。
関連論文リスト
- What Affects Learned Equivariance in Deep Image Recognition Models? [10.590129221143222]
ImageNet上で,学習した翻訳の等価性と検証精度の相関関係を示す証拠が発見された。
データ拡張、モデルのキャパシティの低減、畳み込みの形での帰納バイアスは、ニューラルネットワークにおいてより高い学習等価性をもたらす。
論文 参考訳(メタデータ) (2023-04-05T17:54:25Z) - On the Strong Correlation Between Model Invariance and Generalization [54.812786542023325]
一般化は、見えないデータを分類するモデルの能力をキャプチャする。
不変性はデータの変換におけるモデル予測の一貫性を測定する。
データセット中心の視点から、あるモデルの精度と不変性は異なるテストセット上で線形に相関している。
論文 参考訳(メタデータ) (2022-07-14T17:08:25Z) - Equivariance Discovery by Learned Parameter-Sharing [153.41877129746223]
データから解釈可能な等価性を発見する方法について検討する。
具体的には、モデルのパラメータ共有方式に対する最適化問題として、この発見プロセスを定式化する。
また,ガウスデータの手法を理論的に解析し,研究された発見スキームとオラクルスキームの間の平均2乗ギャップを限定する。
論文 参考訳(メタデータ) (2022-04-07T17:59:19Z) - Quantised Transforming Auto-Encoders: Achieving Equivariance to
Arbitrary Transformations in Deep Networks [23.673155102696338]
畳み込みニューラルネットワーク(CNN)は画像翻訳と等価である。
埋め込みは任意の等式関係を同時に従うオートエンコーダアーキテクチャを提案する。
いくつかのデータセット上で入力画像の変換版の再レンダリングに成功した結果を示す。
論文 参考訳(メタデータ) (2021-11-25T02:26:38Z) - Grounding inductive biases in natural images:invariance stems from
variations in data [20.432568247732206]
本研究では,実際のデータセットであるImageNetの変動要因について検討する。
標準的な拡張は、翻訳とスケールの正確な組み合わせに依存していることを示す。
ImageNetの変動の主な要因は外見に大きく関係していることがわかりました。
論文 参考訳(メタデータ) (2021-06-09T14:58:57Z) - Learning Invariances in Neural Networks [51.20867785006147]
ネットワークパラメータや拡張パラメータに関して,拡張性よりも分布をパラメータ化し,トレーニング損失を同時に最適化する方法を示す。
画像分類,回帰,セグメンテーション,分子特性予測における不均一性の正確なセットと範囲を,拡張の広い空間から復元することができる。
論文 参考訳(メタデータ) (2020-10-22T17:18:48Z) - Category-Learning with Context-Augmented Autoencoder [63.05016513788047]
実世界のデータの解釈可能な非冗長表現を見つけることは、機械学習の鍵となる問題の一つである。
本稿では,オートエンコーダのトレーニングにデータ拡張を利用する新しい手法を提案する。
このような方法で変分オートエンコーダを訓練し、補助ネットワークによって変換結果を予測できるようにする。
論文 参考訳(メタデータ) (2020-10-10T14:04:44Z) - Generalizing Convolutional Neural Networks for Equivariance to Lie
Groups on Arbitrary Continuous Data [52.78581260260455]
任意の特定のリー群からの変換に同値な畳み込み層を構築するための一般的な方法を提案する。
同じモデルアーキテクチャを画像、ボール・アンド・スティック分子データ、ハミルトン力学系に適用する。
論文 参考訳(メタデータ) (2020-02-25T17:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。