論文の概要: On the Rashomon ratio of infinite hypothesis sets
- arxiv url: http://arxiv.org/abs/2404.17746v1
- Date: Sat, 27 Apr 2024 01:34:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-30 19:30:48.520149
- Title: On the Rashomon ratio of infinite hypothesis sets
- Title(参考訳): 無限仮説集合の羅生門比について
- Authors: Evzenie Coupkova, Mireille Boutin,
- Abstract要約: 羅生門比は、与えられた損失より少ない分類器の比率を測定する。
大規模な羅生門比は、分類器の選択が家族のランダムな部分集合の中で最良の経験的精度を持つことを保証するが、それは一般化性を向上させる可能性が高いため、経験的損失があまり増加しないことを示す。
- 参考スコア(独自算出の注目度): 0.4604003661048266
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given a classification problem and a family of classifiers, the Rashomon ratio measures the proportion of classifiers that yield less than a given loss. Previous work has explored the advantage of a large Rashomon ratio in the case of a finite family of classifiers. Here we consider the more general case of an infinite family. We show that a large Rashomon ratio guarantees that choosing the classifier with the best empirical accuracy among a random subset of the family, which is likely to improve generalizability, will not increase the empirical loss too much. We quantify the Rashomon ratio in two examples involving infinite classifier families in order to illustrate situations in which it is large. In the first example, we estimate the Rashomon ratio of the classification of normally distributed classes using an affine classifier. In the second, we obtain a lower bound for the Rashomon ratio of a classification problem with a modified Gram matrix when the classifier family consists of two-layer ReLU neural networks. In general, we show that the Rashomon ratio can be estimated using a training dataset along with random samples from the classifier family and we provide guarantees that such an estimation is close to the true value of the Rashomon ratio.
- Abstract(参考訳): 分類問題と分類器の族が与えられた場合、羅生門比は与えられた損失よりも少ない分類器の比率を測定する。
それまでの研究は、有限分類器の族の場合、大きな羅生門比の利点を探求してきた。
ここでは、無限族のより一般的な場合を考える。
大規模な羅生門比は、分類器の選択が家族のランダムな部分集合の中で最良の経験的精度を持つことを保証するが、それは一般化性を向上させる可能性が高いため、経験的損失があまり増加しないことを示す。
無限分類器群を含む2つの例において、ラショモン比を定量化して、それが大きい状況を示す。
最初の例では、アフィン分類器を用いて正規分布クラスの分類のラショモン比を推定する。
第二に、分類器ファミリーが2層ReLUニューラルネットワークからなる場合、分類問題と修正グラム行列との分類問題のラショモン比の下位境界を求める。
一般に、学習データセットと分類器ファミリーのランダムなサンプルを用いてラショウモン比を推定できることを示し、そのような推定がラショウモン比の真値に近いことを保証した。
関連論文リスト
- Learning a Gaussian Mixture for Sparsity Regularization in Inverse
Problems [2.375943263571389]
逆問題では、スパーシティ事前の組み込みは、解に対する正則化効果をもたらす。
本稿では,ガウスの混合として事前に定式化された確率的疎性について提案する。
我々は、このネットワークのパラメータを推定するために、教師なしのトレーニング戦略と教師なしのトレーニング戦略をそれぞれ導入した。
論文 参考訳(メタデータ) (2024-01-29T22:52:57Z) - A Path to Simpler Models Starts With Noise [17.36067410506525]
羅生門集合は、与えられたデータセット上でほぼ等しく機能するモデルの集合である。
オープンな疑問は、なぜラショモン比が大きくなるのかである。
よりノイズの多いデータセットは、実践者がモデルをトレーニングする方法を通じて、より大きなRashomon比につながることを示す。
論文 参考訳(メタデータ) (2023-10-30T16:52:57Z) - Deep Imbalanced Regression via Hierarchical Classification Adjustment [50.19438850112964]
コンピュータビジョンにおける回帰タスクは、しばしば、対象空間をクラスに定量化することで分類される。
トレーニングサンプルの大多数は目標値の先頭にあるが、少数のサンプルは通常より広い尾幅に分布する。
不均衡回帰タスクを解くために階層型分類器を構築することを提案する。
不均衡回帰のための新しい階層型分類調整(HCA)は,3つのタスクにおいて優れた結果を示す。
論文 参考訳(メタデータ) (2023-10-26T04:54:39Z) - Entropy regularization in probabilistic clustering [0.0]
クラスタリング構成の新しいベイズ推定器を提案する。
提案手法は,スパースクラスタ数の削減を目的とした後処理手法と等価である。
論文 参考訳(メタデータ) (2023-07-19T15:36:40Z) - Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - Benign Overfitting in Adversarially Robust Linear Classification [91.42259226639837]
分類器がノイズの多いトレーニングデータを記憶しながらも、優れた一般化性能を達成している「双曲オーバーフィッティング」は、機械学習コミュニティにおいて大きな注目を集めている。
本研究は, 対人訓練において, 対人訓練において, 良心過剰が実際に発生することを示し, 対人訓練に対する防御の原則的アプローチを示す。
論文 参考訳(メタデータ) (2021-12-31T00:27:31Z) - Posterior concentration and fast convergence rates for generalized
Bayesian learning [4.186575888568896]
一般化ベイズ推定器の一般環境での学習率について検討する。
マルチスケールのベルンシュタインの条件の下では、一般化された後続分布は最適仮説の集合の周りに集中することが証明される。
論文 参考訳(メタデータ) (2021-11-19T14:25:21Z) - Asymptotic Supervised Predictive Classifiers under Partition
Exchangeability [0.0]
結果は、無限のトレーニングまたはテストデータの下でこれらの分類器の収束を示しています。
これは実用上重要な結果であり、十分な量のデータが存在する場合には、より単純な辺縁分類器を計算的に高価な同時処理に置き換えることができる。
論文 参考訳(メタデータ) (2021-01-26T17:17:40Z) - Open-Set Recognition with Gaussian Mixture Variational Autoencoders [91.3247063132127]
推論において、オープンセット分類は、サンプルをトレーニングから既知のクラスに分類するか、未知のクラスとして拒絶するかのどちらかである。
我々は,協調的に再構築を学習し,潜在空間におけるクラスベースのクラスタリングを行うよう,我々のモデルを訓練する。
我々のモデルは、より正確で堅牢なオープンセット分類結果を実現し、平均的なF1改善率は29.5%である。
論文 参考訳(メタデータ) (2020-06-03T01:15:19Z) - Learning from Aggregate Observations [82.44304647051243]
本研究では,一組のインスタンスに監視信号が与えられる集合観察から学習する問題について検討する。
本稿では,多種多様な集合観測に適合する一般的な確率的枠組みを提案する。
単純な極大解は様々な微分可能なモデルに適用できる。
論文 参考訳(メタデータ) (2020-04-14T06:18:50Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。