論文の概要: Post-mortem on a deep learning contest: a Simpson's paradox and the
complementary roles of scale metrics versus shape metrics
- arxiv url: http://arxiv.org/abs/2106.00734v1
- Date: Tue, 1 Jun 2021 19:19:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-03 14:43:19.102672
- Title: Post-mortem on a deep learning contest: a Simpson's paradox and the
complementary roles of scale metrics versus shape metrics
- Title(参考訳): 深層学習コンテストにおける反省会--シンプソンのパラドックスとスケールメトリクスと形状メトリクスの相補的役割
- Authors: Charles H. Martin and Michael W. Mahoney
- Abstract要約: 我々は、ニューラルネットワーク(NN)モデルの一般化精度を予測するために、コンテストで公に利用可能にされたモデルのコーパスを分析する。
メトリクスが全体としてよく機能するが、データのサブパーティションではあまり機能しない。
本稿では,データに依存しない2つの新しい形状指標と,一連のNNのテスト精度の傾向を予測できるデータ依存指標を提案する。
- 参考スコア(独自算出の注目度): 61.49826776409194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To understand better the causes of good generalization performance in
state-of-the-art neural network (NN) models, we analyze of a corpus of models
that was made publicly-available for a contest to predict the generalization
accuracy of NNs. These models include a wide range of qualities and were
trained with a range of architectures and regularization hyperparameters. We
identify what amounts to a Simpson's paradox: where "scale" metrics (from
traditional statistical learning theory) perform well overall but perform
poorly on subpartitions of the data of a given depth, when regularization
hyperparameters are varied; and where "shape" metrics (from Heavy-Tailed Self
Regularization theory) perform well on subpartitions of the data, when
hyperparameters are varied for models of a given depth, but perform poorly
overall when models with varying depths are aggregated. Our results highlight
the subtly of comparing models when both architectures and hyperparameters are
varied, as well as the complementary role of implicit scale versus implicit
shape parameters in understanding NN model quality. Our results also suggest
caution when one tries to extract causal insight with a single metric applied
to aggregate data, and they highlight the need to go beyond one-size-fits-all
metrics based on upper bounds from generalization theory to describe the
performance of state-of-the-art NN models. Based on these findings, we present
two novel shape metrics, one data-independent, and the other data-dependent,
which can predict trends in the test accuracy of a series of NNs, of a fixed
architecture/depth, when varying solver hyperparameters.
- Abstract(参考訳): 最先端ニューラルネットワーク(NN)モデルにおいて,優れた一般化性能の原因をよりよく理解するために,NNの一般化精度を予測するコンテストで公開されているモデルのコーパスを分析した。
これらのモデルには幅広い品質が含まれ、様々なアーキテクチャと正規化ハイパーパラメータで訓練された。
We identify what amounts to a Simpson's paradox: where "scale" metrics (from traditional statistical learning theory) perform well overall but perform poorly on subpartitions of the data of a given depth, when regularization hyperparameters are varied; and where "shape" metrics (from Heavy-Tailed Self Regularization theory) perform well on subpartitions of the data, when hyperparameters are varied for models of a given depth, but perform poorly overall when models with varying depths are aggregated.
この結果から,アーキテクチャとハイパーパラメータが異なる場合と,NNモデル品質の理解における暗黙的スケールと暗黙的形状パラメータの相補的役割について,モデルの比較を行った。
また,データ収集に応用した1つの指標を用いて因果的洞察を抽出しようとする場合,さらに,一般化理論の上限値に基づいて,最先端のNNモデルの性能を記述することの必要性を強調した。
これらの結果に基づき,データ非依存とデータ依存の2つの新しい形状指標を示し,解法ハイパーパラメータを変化させる際に,nnの連続したテスト精度の傾向を予測できる。
関連論文リスト
- Scaling and renormalization in high-dimensional regression [72.59731158970894]
本稿では,様々な高次元リッジ回帰モデルの訓練および一般化性能の簡潔な導出について述べる。
本稿では,物理と深層学習の背景を持つ読者を対象に,これらのトピックに関する最近の研究成果の紹介とレビューを行う。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - A PAC-Bayesian Perspective on the Interpolating Information Criterion [54.548058449535155]
補間系の性能に影響を及ぼす要因を特徴付ける一般モデルのクラスに対して,PAC-Bayes境界がいかに得られるかを示す。
オーバーパラメータ化モデルに対するテスト誤差が、モデルとパラメータの初期化スキームの組み合わせによって課される暗黙の正規化の品質に依存するかの定量化を行う。
論文 参考訳(メタデータ) (2023-11-13T01:48:08Z) - Fairer and More Accurate Tabular Models Through NAS [14.147928131445852]
本稿では,多目的ニューラルアーキテクチャサーチ (NAS) とハイパーパラメータ最適化 (HPO) を,表データの非常に困難な領域への最初の応用として提案する。
我々はNASで精度のみに最適化されたモデルが、本質的に公正な懸念に対処できないことをしばしば示している。
公平性、正確性、あるいは両方において、最先端のバイアス緩和手法を一貫して支配するアーキテクチャを作成します。
論文 参考訳(メタデータ) (2023-10-18T17:56:24Z) - On the Influence of Enforcing Model Identifiability on Learning dynamics
of Gaussian Mixture Models [14.759688428864159]
特異モデルからサブモデルを抽出する手法を提案する。
本手法はトレーニング中のモデルの識別性を強制する。
この手法がディープニューラルネットワークのようなより複雑なモデルにどのように適用できるかを示す。
論文 参考訳(メタデータ) (2022-06-17T07:50:22Z) - Dynamically-Scaled Deep Canonical Correlation Analysis [77.34726150561087]
カノニカル相関解析 (CCA) は, 2つのビューの特徴抽出手法である。
本稿では,入力依存の正準相関モデルをトレーニングするための新しい動的スケーリング手法を提案する。
論文 参考訳(メタデータ) (2022-03-23T12:52:49Z) - Structure and Distribution Metric for Quantifying the Quality of
Uncertainty: Assessing Gaussian Processes, Deep Neural Nets, and Deep Neural
Operators for Regression [0.0]
回帰タスクの任意の次元に実装できる2つの比較指標を提案する。
構造計量は、真の誤差と不確かさの形状と位置の類似性を評価する一方、分布計量は、支持された2つの大きさを定量化する。
これらのメトリクスを高次元および非線形テストケースにおけるガウス過程(GP)、アンサンブルディープニューラルネット(DNN)、およびアンサンブルディープニューラルオペレータ(DNO)に適用する。
論文 参考訳(メタデータ) (2022-03-09T04:16:31Z) - Nonparametric Functional Analysis of Generalized Linear Models Under
Nonlinear Constraints [0.0]
本稿では、一般化線形モデルのための新しい非パラメトリック方法論を紹介する。
これは二項回帰の強さとカテゴリーデータに対する潜在変数の定式化の強さを組み合わせたものである。
これは最近公開された方法論のパラメトリックバージョンを拡張し、一般化する。
論文 参考訳(メタデータ) (2021-10-11T04:49:59Z) - Understanding Overparameterization in Generative Adversarial Networks [56.57403335510056]
generative adversarial network (gans) は、非凹型ミニマックス最適化問題を訓練するために用いられる。
ある理論は、グローバル最適解に対する勾配降下 (gd) の重要性を示している。
ニューラルネットワークジェネレータと線形判別器を併用した多層GANにおいて、GDAは、基礎となる非凹面min-max問題の大域的なサドル点に収束することを示す。
論文 参考訳(メタデータ) (2021-04-12T16:23:37Z) - Intrinsic Dimensionality Explains the Effectiveness of Language Model
Fine-Tuning [52.624194343095304]
我々は、内在次元のレンズを通して微調整を分析することは、経験的および理論的直観をもたらすと論じる。
実験により、一般的な事前学習モデルは本質的な次元が極めて低いことを示す。
論文 参考訳(メタデータ) (2020-12-22T07:42:30Z) - Memorizing without overfitting: Bias, variance, and interpolation in
over-parameterized models [0.0]
バイアス分散トレードオフは教師あり学習における中心的な概念である。
現代のDeep Learningメソッドは、最先端のパフォーマンスを達成するために、このドグマを浮かび上がらせる。
論文 参考訳(メタデータ) (2020-10-26T22:31:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。