論文の概要: The Lie Derivative for Measuring Learned Equivariance
- arxiv url: http://arxiv.org/abs/2210.02984v1
- Date: Thu, 6 Oct 2022 15:20:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 14:57:24.809422
- Title: The Lie Derivative for Measuring Learned Equivariance
- Title(参考訳): 学習した等価性を測定するためのリー導出剤
- Authors: Nate Gruver, Marc Finzi, Micah Goldblum, Andrew Gordon Wilson
- Abstract要約: 我々は、CNN、トランスフォーマー、ミキサーアーキテクチャにまたがる数百の事前訓練されたモデルの同値性について検討する。
その結果,不等式違反の多くは,不等式などのユビキタスネットワーク層における空間エイリアスに関連付けられることがわかった。
例えば、トランスはトレーニング後の畳み込みニューラルネットワークよりも同種である。
- 参考スコア(独自算出の注目度): 49.39804522506397
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Equivariance guarantees that a model's predictions capture key symmetries in
data. When an image is translated or rotated, an equivariant model's
representation of that image will translate or rotate accordingly. The success
of convolutional neural networks has historically been tied to translation
equivariance directly encoded in their architecture. The rising success of
vision transformers, which have no explicit architectural bias towards
equivariance, challenges this narrative and suggests that augmentations and
training data might also play a significant role in their performance. In order
to better understand the role of equivariance in recent vision models, we
introduce the Lie derivative, a method for measuring equivariance with strong
mathematical foundations and minimal hyperparameters. Using the Lie derivative,
we study the equivariance properties of hundreds of pretrained models, spanning
CNNs, transformers, and Mixer architectures. The scale of our analysis allows
us to separate the impact of architecture from other factors like model size or
training method. Surprisingly, we find that many violations of equivariance can
be linked to spatial aliasing in ubiquitous network layers, such as pointwise
non-linearities, and that as models get larger and more accurate they tend to
display more equivariance, regardless of architecture. For example,
transformers can be more equivariant than convolutional neural networks after
training.
- Abstract(参考訳): 等分散は、モデルの予測がデータ内の鍵対称性をキャプチャすることを保証する。
画像が変換または回転されると、同変モデルの画像表現は、それに応じて変換または回転する。
畳み込みニューラルネットワークの成功は、歴史的に、そのアーキテクチャに直接エンコードされた翻訳等価性に結びついている。
共分散に対する明確なアーキテクチャバイアスを持たない視覚トランスフォーマーの成功は、この物語に挑戦し、拡張とトレーニングデータがパフォーマンスにおいて重要な役割を果たす可能性があることを示唆している。
近年のビジョンモデルにおける等分散の役割をよりよく理解するために、強い数学的基礎と極小ハイパーパラメータで等分散を測定する方法であるリー微分を導入する。
リー微分を用いて,cnn,トランスフォーマー,ミキサーアーキテクチャにまたがる何百もの事前学習モデルの等分散特性について検討した。
分析の規模は、アーキテクチャの影響をモデルのサイズやトレーニング方法といった他の要因と区別することができます。
驚いたことに、等分散の多くの違反は、ポイントワイズ非線形性のようなユビキタスネットワーク層における空間的エイリアスと関連付けられ、モデルが大きくなり、より正確になるにつれて、アーキテクチャに関係なくより等分散を示す傾向がある。
例えば、トランスフォーマーはトレーニング後の畳み込みニューラルネットワークよりも等価である。
関連論文リスト
- Relaxed Equivariance via Multitask Learning [7.905957228045955]
マルチタスク学習と等価性を近似するトレーニング手法であるREMULを紹介する。
制約のないモデルは、追加の単純な等分散損失を最小化することにより、近似対称性を学習できることが示される。
提案手法は, 等変ベースラインと比較して, 推論時の10倍, トレーニング時の2.5倍の速さで, 競争性能が向上する。
論文 参考訳(メタデータ) (2024-10-23T13:50:27Z) - What Affects Learned Equivariance in Deep Image Recognition Models? [10.590129221143222]
ImageNet上で,学習した翻訳の等価性と検証精度の相関関係を示す証拠が発見された。
データ拡張、モデルのキャパシティの低減、畳み込みの形での帰納バイアスは、ニューラルネットワークにおいてより高い学習等価性をもたらす。
論文 参考訳(メタデータ) (2023-04-05T17:54:25Z) - On the Strong Correlation Between Model Invariance and Generalization [54.812786542023325]
一般化は、見えないデータを分類するモデルの能力をキャプチャする。
不変性はデータの変換におけるモデル予測の一貫性を測定する。
データセット中心の視点から、あるモデルの精度と不変性は異なるテストセット上で線形に相関している。
論文 参考訳(メタデータ) (2022-07-14T17:08:25Z) - Equivariance Discovery by Learned Parameter-Sharing [153.41877129746223]
データから解釈可能な等価性を発見する方法について検討する。
具体的には、モデルのパラメータ共有方式に対する最適化問題として、この発見プロセスを定式化する。
また,ガウスデータの手法を理論的に解析し,研究された発見スキームとオラクルスキームの間の平均2乗ギャップを限定する。
論文 参考訳(メタデータ) (2022-04-07T17:59:19Z) - Quantised Transforming Auto-Encoders: Achieving Equivariance to
Arbitrary Transformations in Deep Networks [23.673155102696338]
畳み込みニューラルネットワーク(CNN)は画像翻訳と等価である。
埋め込みは任意の等式関係を同時に従うオートエンコーダアーキテクチャを提案する。
いくつかのデータセット上で入力画像の変換版の再レンダリングに成功した結果を示す。
論文 参考訳(メタデータ) (2021-11-25T02:26:38Z) - Grounding inductive biases in natural images:invariance stems from
variations in data [20.432568247732206]
本研究では,実際のデータセットであるImageNetの変動要因について検討する。
標準的な拡張は、翻訳とスケールの正確な組み合わせに依存していることを示す。
ImageNetの変動の主な要因は外見に大きく関係していることがわかりました。
論文 参考訳(メタデータ) (2021-06-09T14:58:57Z) - Learning Invariances in Neural Networks [51.20867785006147]
ネットワークパラメータや拡張パラメータに関して,拡張性よりも分布をパラメータ化し,トレーニング損失を同時に最適化する方法を示す。
画像分類,回帰,セグメンテーション,分子特性予測における不均一性の正確なセットと範囲を,拡張の広い空間から復元することができる。
論文 参考訳(メタデータ) (2020-10-22T17:18:48Z) - Category-Learning with Context-Augmented Autoencoder [63.05016513788047]
実世界のデータの解釈可能な非冗長表現を見つけることは、機械学習の鍵となる問題の一つである。
本稿では,オートエンコーダのトレーニングにデータ拡張を利用する新しい手法を提案する。
このような方法で変分オートエンコーダを訓練し、補助ネットワークによって変換結果を予測できるようにする。
論文 参考訳(メタデータ) (2020-10-10T14:04:44Z) - Generalizing Convolutional Neural Networks for Equivariance to Lie
Groups on Arbitrary Continuous Data [52.78581260260455]
任意の特定のリー群からの変換に同値な畳み込み層を構築するための一般的な方法を提案する。
同じモデルアーキテクチャを画像、ボール・アンド・スティック分子データ、ハミルトン力学系に適用する。
論文 参考訳(メタデータ) (2020-02-25T17:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。