論文の概要: In What Ways Are Deep Neural Networks Invariant and How Should We
Measure This?
- arxiv url: http://arxiv.org/abs/2210.03773v1
- Date: Fri, 7 Oct 2022 18:43:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 15:24:12.437775
- Title: In What Ways Are Deep Neural Networks Invariant and How Should We
Measure This?
- Title(参考訳): ディープニューラルネットワークはどのような方法で不変か、どのように測定すべきか?
- Authors: Henry Kvinge, Tegan H. Emerson, Grayson Jorgenson, Scott Vasquez,
Timothy Doster, Jesse D. Lew
- Abstract要約: 我々は、これらの特性を損失や精度などの他の指標から切り離す方法で定量化することができる、不変および等分散メトリクスのファミリーを導入する。
本研究では,事前学習した重み付きモデルの初期化がトレーニングモデルの不変性に影響を及ぼすか否かから,トレーニングによって学習した不変性が分布外データに一般化できる範囲まで,ディープラーニングモデルにおける不変性と等価性に関するさまざまな結論を導出する。
- 参考スコア(独自算出の注目度): 5.757836174655293
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is often said that a deep learning model is "invariant" to some specific
type of transformation. However, what is meant by this statement strongly
depends on the context in which it is made. In this paper we explore the nature
of invariance and equivariance of deep learning models with the goal of better
understanding the ways in which they actually capture these concepts on a
formal level. We introduce a family of invariance and equivariance metrics that
allows us to quantify these properties in a way that disentangles them from
other metrics such as loss or accuracy. We use our metrics to better understand
the two most popular methods used to build invariance into networks: data
augmentation and equivariant layers. We draw a range of conclusions about
invariance and equivariance in deep learning models, ranging from whether
initializing a model with pretrained weights has an effect on a trained model's
invariance, to the extent to which invariance learned via training can
generalize to out-of-distribution data.
- Abstract(参考訳): ディープラーニングモデルは、特定のタイプの変換に対して「不変」である、としばしば言われる。
しかし、この言明が意味するものは、それがなされる文脈に強く依存する。
本稿では,これらの概念を形式レベルで実際に捉える方法の理解を深めることを目的として,ディープラーニングモデルの不変性と等価性について検討する。
我々は、これらの特性を損失や精度などの他の指標から切り離す方法で定量化することができる、不変および等分散メトリクスのファミリーを導入する。
私たちはメトリクスを使用して、ネットワークに不変性を構築するために使用される2つの最も一般的な方法、すなわちデータ拡張と同変層をよりよく理解しています。
本研究では,事前学習した重み付きモデルの初期化がトレーニングモデルの不変性に与える影響から,トレーニングによって学習された不変性が分散データに一般化できる範囲まで,ディープラーニングモデルにおける不変性と等価性に関する結論を導出する。
関連論文リスト
- On genuine invariance learning without weight-tying [6.308539010172309]
重み付け制約を伴わないニューラルネットワークにおける不変学習を解析する。
学習した不変性は入力データに強く条件付けられており、入力分布がシフトした場合は信頼できないことを示す。
論文 参考訳(メタデータ) (2023-08-07T20:41:19Z) - What Affects Learned Equivariance in Deep Image Recognition Models? [10.590129221143222]
ImageNet上で,学習した翻訳の等価性と検証精度の相関関係を示す証拠が発見された。
データ拡張、モデルのキャパシティの低減、畳み込みの形での帰納バイアスは、ニューラルネットワークにおいてより高い学習等価性をもたらす。
論文 参考訳(メタデータ) (2023-04-05T17:54:25Z) - The Lie Derivative for Measuring Learned Equivariance [84.29366874540217]
我々は、CNN、トランスフォーマー、ミキサーアーキテクチャにまたがる数百の事前訓練されたモデルの同値性について検討する。
その結果,不等式違反の多くは,不等式などのユビキタスネットワーク層における空間エイリアスに関連付けられることがわかった。
例えば、トランスはトレーニング後の畳み込みニューラルネットワークよりも同種である。
論文 参考訳(メタデータ) (2022-10-06T15:20:55Z) - On the Strong Correlation Between Model Invariance and Generalization [54.812786542023325]
一般化は、見えないデータを分類するモデルの能力をキャプチャする。
不変性はデータの変換におけるモデル予測の一貫性を測定する。
データセット中心の視点から、あるモデルの精度と不変性は異なるテストセット上で線形に相関している。
論文 参考訳(メタデータ) (2022-07-14T17:08:25Z) - Equivariance Discovery by Learned Parameter-Sharing [153.41877129746223]
データから解釈可能な等価性を発見する方法について検討する。
具体的には、モデルのパラメータ共有方式に対する最適化問題として、この発見プロセスを定式化する。
また,ガウスデータの手法を理論的に解析し,研究された発見スキームとオラクルスキームの間の平均2乗ギャップを限定する。
論文 参考訳(メタデータ) (2022-04-07T17:59:19Z) - Regularising for invariance to data augmentation improves supervised
learning [82.85692486314949]
入力毎に複数の拡張を使用すれば、一般化が向上することを示す。
本稿では,個々のモデル予測のレベルにおいて,この不変性を助長する明示的な正規化手法を提案する。
論文 参考訳(メタデータ) (2022-03-07T11:25:45Z) - Counterfactual Invariance to Spurious Correlations: Why and How to Pass
Stress Tests [87.60900567941428]
素早い相関」とは、アナリストが重要とすべきでないと考える入力データのある側面に対するモデルの依存である。
機械学習では、これらにはノウ・イ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ」という特徴がある。
因果推論ツールを用いたストレステストについて検討した。
論文 参考訳(メタデータ) (2021-05-31T14:39:38Z) - Learning Invariances in Neural Networks [51.20867785006147]
ネットワークパラメータや拡張パラメータに関して,拡張性よりも分布をパラメータ化し,トレーニング損失を同時に最適化する方法を示す。
画像分類,回帰,セグメンテーション,分子特性予測における不均一性の正確なセットと範囲を,拡張の広い空間から復元することができる。
論文 参考訳(メタデータ) (2020-10-22T17:18:48Z) - What causes the test error? Going beyond bias-variance via ANOVA [21.359033212191218]
現代の機械学習手法は、しばしば過度にパラメータ化され、細かいレベルでのデータへの適応を可能にする。
最近の研究は、なぜ過度なパラメータ化が一般化に役立つのかをより深く理解することを目的としている。
本研究では, 差分解析(ANOVA)を用いて, テスト誤差の分散を対称的に分解する手法を提案する。
論文 参考訳(メタデータ) (2020-10-11T05:21:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。