論文の概要: Evaluating State-of-the-Art Classification Models Against Bayes
Optimality
- arxiv url: http://arxiv.org/abs/2106.03357v1
- Date: Mon, 7 Jun 2021 06:21:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-09 10:45:26.339335
- Title: Evaluating State-of-the-Art Classification Models Against Bayes
Optimality
- Title(参考訳): ベイズ最適性に対する最先端分類モデルの評価
- Authors: Ryan Theisen, Huan Wang, Lav R. Varshney, Caiming Xiong, Richard
Socher
- Abstract要約: 正規化フローを用いて学習した生成モデルのベイズ誤差を正確に計算できることを示す。
われわれの手法を用いて、最先端の分類モデルについて徹底的な調査を行う。
- 参考スコア(独自算出の注目度): 106.50867011164584
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Evaluating the inherent difficulty of a given data-driven classification
problem is important for establishing absolute benchmarks and evaluating
progress in the field. To this end, a natural quantity to consider is the
\emph{Bayes error}, which measures the optimal classification error
theoretically achievable for a given data distribution. While generally an
intractable quantity, we show that we can compute the exact Bayes error of
generative models learned using normalizing flows. Our technique relies on a
fundamental result, which states that the Bayes error is invariant under
invertible transformation. Therefore, we can compute the exact Bayes error of
the learned flow models by computing it for Gaussian base distributions, which
can be done efficiently using Holmes-Diaconis-Ross integration. Moreover, we
show that by varying the temperature of the learned flow models, we can
generate synthetic datasets that closely resemble standard benchmark datasets,
but with almost any desired Bayes error. We use our approach to conduct a
thorough investigation of state-of-the-art classification models, and find that
in some -- but not all -- cases, these models are capable of obtaining accuracy
very near optimal. Finally, we use our method to evaluate the intrinsic
"hardness" of standard benchmark datasets, and classes within those datasets.
- Abstract(参考訳): データ駆動型分類問題の本質的困難さを評価することは、絶対的なベンチマークを確立し、その分野の進歩を評価するために重要である。
この目的のために考慮すべき自然な量は、与えられたデータ分布に対して理論的に達成可能な最適分類誤差を測定する \emph{bayes error} である。
一般に難解な量であるが、正規化フローを用いて学習した生成モデルのベイズ誤差を正確に計算できることを示す。
この手法は、ベイズ誤差が可逆変換の下で不変であることを示す基本的な結果に依存する。
したがって,ホームズ・ダイアコニス・ロス積分を用いて効率的なガウス基底分布を求めることにより,学習フローモデルの正確なベイズ誤差を計算することができる。
さらに, 学習フローモデルの温度を変化させることで, 標準ベンチマークデータセットによく似ているが, ほぼ所望のベイズ誤差を伴う合成データセットを生成できることを示した。
当社のアプローチは最先端の分類モデルの徹底的な調査に使用し、いくつかの(しかしすべてではない)ケースにおいて、これらのモデルが極めて最適に近い精度を得ることができることを見出します。
最後に,本手法を用いて標準ベンチマークデータセットの固有「硬度」とそれらのデータセット内のクラスを評価する。
関連論文リスト
- Theoretical characterization of uncertainty in high-dimensional linear
classification [24.073221004661427]
本研究では,高次元入力データとラベルの限られたサンプル数から学習する不確実性が,近似メッセージパッシングアルゴリズムによって得られることを示す。
我々は,信頼度を適切に正則化することで緩和する方法について論じるとともに,損失に対するクロスバリデーションが0/1誤差よりもキャリブレーションが優れていることを示す。
論文 参考訳(メタデータ) (2022-02-07T15:32:07Z) - Is the Performance of My Deep Network Too Good to Be True? A Direct
Approach to Estimating the Bayes Error in Binary Classification [86.32752788233913]
分類問題において、ベイズ誤差は、最先端の性能を持つ分類器を評価するための基準として用いられる。
我々はベイズ誤差推定器を提案する。そこでは,クラスの不確かさを示すラベルの平均値のみを評価できる。
我々の柔軟なアプローチは、弱い教師付きデータであってもベイズ誤差を推定できる。
論文 参考訳(メタデータ) (2022-02-01T13:22:26Z) - Variational Inference with NoFAS: Normalizing Flow with Adaptive
Surrogate for Computationally Expensive Models [7.217783736464403]
マルコフ連鎖モンテカルロのようなサンプリングに基づくアプローチの使用は、それぞれの可能性評価が計算的に高価であるときに難解になる可能性がある。
変分推論と正規化フローを組み合わせた新しいアプローチは、潜在変数空間の次元と線形にしか成長しない計算コストによって特徴づけられる。
本稿では,ニューラルネットワークサロゲートモデルの正規化フローパラメータと重みを代わりに更新する最適化戦略である,適応サロゲートを用いた正規化フロー(NoFAS)を提案する。
論文 参考訳(メタデータ) (2021-08-28T14:31:45Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Matrix Completion with Quantified Uncertainty through Low Rank Gaussian
Copula [30.84155327760468]
本稿では,不確かさを定量化した値計算の欠如に対する枠組みを提案する。
モデルに適合するために必要な時間は、データセット内の行数や列数と線形にスケールする。
実験結果から,本手法は様々な種類のデータに対して最先端の計算精度が得られることがわかった。
論文 参考訳(メタデータ) (2020-06-18T19:51:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。