論文の概要: Calibrating for Class Weights by Modeling Machine Learning
- arxiv url: http://arxiv.org/abs/2205.04613v1
- Date: Tue, 10 May 2022 01:20:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-14 23:22:46.128947
- Title: Calibrating for Class Weights by Modeling Machine Learning
- Title(参考訳): 機械学習のモデリングによるクラスウェイト校正
- Authors: Andrew Caplin, Daniel Martin, and Philip Marx
- Abstract要約: 機械学習アルゴリズムによって提供される信頼スコアは、真理確率に校正される。
我々は,この不整合性をモデルベースで説明し,人為的モデルを用いて,確率を復元する簡単な方法を生成する。
- 参考スコア(独自算出の注目度): 0.7340845393655052
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A much studied issue is the extent to which the confidence scores provided by
machine learning algorithms are calibrated to ground truth probabilities. Our
starting point is that calibration is seemingly incompatible with class
weighting, a technique often employed when one class is less common (class
imbalance) or with the hope of achieving some external objective
(cost-sensitive learning). We provide a model-based explanation for this
incompatibility and use our anthropomorphic model to generate a simple method
of recovering likelihoods from an algorithm that is miscalibrated due to class
weighting. We validate this approach in the binary pneumonia detection task of
Rajpurkar, Irvin, Zhu, et al. (2017).
- Abstract(参考訳): より研究された課題は、機械学習アルゴリズムによって提供される信頼度スコアが、真実の確率に基づいて調整される範囲である。
私たちの出発点は、キャリブレーションがクラスの重み付けと相容れないように見えることです。これは、1つのクラスがあまり一般的でない場合(クラス不均衡)や、ある外部目標を達成する場合(コスト感受性学習)にしばしば使用されるテクニックです。
本稿では,この不整合性をモデルベースで説明し,クラス重み付けによって誤判定されるアルゴリズムから確率を復元する簡単な方法を生成する。
このアプローチは,rajpurkar,irvin,zhu,al.(2017) の2次肺炎検出タスクで検証した。
- 全文 参考訳へのリンク
関連論文リスト
- Meta-free representation learning for few-shot learning via stochastic
weight averaging [13.6555672824229]
転写学習を用いたショット分類の最近の研究は、エピソードなメタラーニングアルゴリズムの有効性と効率に課題を提起している。
数ショットの回帰と分類のための正確で信頼性の高いモデルを得るための新しい移動学習法を提案する。
論文 参考訳(メタデータ) (2022-04-26T17:36:34Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - A comparison of combined data assimilation and machine learning methods
for offline and online model error correction [0.0]
機械学習手法とデータ同化を併用して動的システムを再構築することは可能であることを示す。
同じアプローチは、知識ベースのモデルのエラーを修正するために使用することができる。
傾向補正がオンラインモデル誤り訂正の可能性を開放することを示す。
論文 参考訳(メタデータ) (2021-07-23T09:57:45Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - eGAN: Unsupervised approach to class imbalance using transfer learning [8.100450025624443]
クラス不均衡は、多くの機械学習分類タスクに固有の問題である。
予め訓練された画像分類モデルからエンコーダベースのGenerative Adversarial Network(eGAN)への転送学習を活用することにより、これらの不均衡に対処するための監督されていないアプローチを検討する。
CIFAR-10分類タスクにおいて0.69 F1-scoreの結果が1:2500の不均衡比で得られた。
論文 参考訳(メタデータ) (2021-04-09T02:37:55Z) - Autocalibration and Tweedie-dominance for Insurance Pricing with Machine
Learning [0.0]
逸脱の最小化には, 下位部分モーメントの重み付き差分の積分と, 特定のスケールで測定されたバイアスとのトレードオフが伴うことが示された。
バイアスを補正する新しい手法は、分析にさらに局所的なGLMステップを追加する。
凸順序は、競合するモデルを比較する自然なツールであるように見える。
論文 参考訳(メタデータ) (2021-03-05T12:40:30Z) - Outlier-Robust Learning of Ising Models Under Dobrushin's Condition [57.89518300699042]
本研究では, サンプルの一定割合が逆向きに破壊されるような外乱条件下で, ドブルシンの条件を満たすIsingモデルの学習問題について検討する。
我々の主な成果は、ほぼ最適誤差保証を伴うこの問題に対して、計算効率のよい最初の頑健な学習アルゴリズムを提供することである。
論文 参考訳(メタデータ) (2021-02-03T18:00:57Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。