論文の概要: Calibrating for Class Weights by Modeling Machine Learning
- arxiv url: http://arxiv.org/abs/2205.04613v1
- Date: Tue, 10 May 2022 01:20:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-14 23:22:46.128947
- Title: Calibrating for Class Weights by Modeling Machine Learning
- Title(参考訳): 機械学習のモデリングによるクラスウェイト校正
- Authors: Andrew Caplin, Daniel Martin, and Philip Marx
- Abstract要約: 機械学習アルゴリズムによって提供される信頼スコアは、真理確率に校正される。
我々は,この不整合性をモデルベースで説明し,人為的モデルを用いて,確率を復元する簡単な方法を生成する。
- 参考スコア(独自算出の注目度): 0.7340845393655052
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A much studied issue is the extent to which the confidence scores provided by
machine learning algorithms are calibrated to ground truth probabilities. Our
starting point is that calibration is seemingly incompatible with class
weighting, a technique often employed when one class is less common (class
imbalance) or with the hope of achieving some external objective
(cost-sensitive learning). We provide a model-based explanation for this
incompatibility and use our anthropomorphic model to generate a simple method
of recovering likelihoods from an algorithm that is miscalibrated due to class
weighting. We validate this approach in the binary pneumonia detection task of
Rajpurkar, Irvin, Zhu, et al. (2017).
- Abstract(参考訳): より研究された課題は、機械学習アルゴリズムによって提供される信頼度スコアが、真実の確率に基づいて調整される範囲である。
私たちの出発点は、キャリブレーションがクラスの重み付けと相容れないように見えることです。これは、1つのクラスがあまり一般的でない場合(クラス不均衡)や、ある外部目標を達成する場合(コスト感受性学習)にしばしば使用されるテクニックです。
本稿では,この不整合性をモデルベースで説明し,クラス重み付けによって誤判定されるアルゴリズムから確率を復元する簡単な方法を生成する。
このアプローチは,rajpurkar,irvin,zhu,al.(2017)の2次肺炎検出タスクで検証した。
関連論文リスト
- An Efficient Replay for Class-Incremental Learning with Pre-trained Models [0.0]
授業増分学習では,各クラス中心で案内される重み間の定常状態が破壊され,忘れることと大きく相関する。
忘れを克服する新しい方法を提案する。
論文 参考訳(メタデータ) (2024-08-15T11:26:28Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Multi-Head Multi-Loss Model Calibration [13.841172927454204]
我々は,深層アンサンブルの訓練と推論に要する費用を省く,単純化されたアンサンブルの形式を導入する。
具体的には、各頭部は、重み付きクロスエントロピー損失を最小限に抑えるために訓練されるが、重みは異なる枝によって異なる。
その結果,2つの挑戦データセットにおいて精度を犠牲にすることなく,精度の高いキャリブレーションを達成できることが示唆された。
論文 参考訳(メタデータ) (2023-03-02T09:32:32Z) - Class-wise and reduced calibration methods [0.0]
キャリブレーションの削減により、元の問題をより単純なものに変換する方法を示す。
第2に,ニューラル崩壊という現象に基づいて,クラスワイドキャリブレーション手法を提案する。
この2つの手法を併用すると、予測とクラスごとの校正誤差を低減する強力なツールであるクラス単位での校正アルゴリズムが実現される。
論文 参考訳(メタデータ) (2022-10-07T17:13:17Z) - Calibrating Ensembles for Scalable Uncertainty Quantification in Deep
Learning-based Medical Segmentation [0.42008820076301906]
自動画像解析における不確かさの定量化は、多くのアプリケーションで非常に望まれている。
現在の不確実性定量化アプローチは、高次元実世界の問題ではうまくスケールしない。
本研究では,ディープラーニングモデルのアンサンブルを校正し,不確実な定量化測定を行うための,スケーラブルで直感的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T09:09:48Z) - Prototype-Anchored Learning for Learning with Imperfect Annotations [83.7763875464011]
不完全な注釈付きデータセットからバイアスのない分類モデルを学ぶことは困難である。
本稿では,様々な学習に基づく分類手法に容易に組み込むことができるプロトタイプ・アンコレッド学習法を提案する。
我々は,PALがクラス不均衡学習および耐雑音学習に与える影響を,合成および実世界のデータセットに関する広範な実験により検証した。
論文 参考訳(メタデータ) (2022-06-23T10:25:37Z) - Towards Diverse Evaluation of Class Incremental Learning: A Representation Learning Perspective [67.45111837188685]
クラスインクリメンタル学習(CIL)アルゴリズムは、インクリメンタルに到着したデータから新しいオブジェクトクラスを継続的に学習することを目的としている。
表現学習における様々な評価プロトコルを用いて,CILアルゴリズムによって訓練されたニューラルネットワークモデルを実験的に解析する。
論文 参考訳(メタデータ) (2022-06-16T11:44:11Z) - Prototypical Calibration for Few-shot Learning of Language Models [84.5759596754605]
GPTライクなモデルは、さまざまな手作りテンプレートやデモ順列にまたがる脆弱であると認識されている。
ゼロショットと少数ショットの分類において、より堅牢な決定境界を適応的に学習するためのプロトタイプキャリブレーションを提案する。
提案手法は決定境界を期待通りに校正し,テンプレート,置換,クラス不均衡に対するGPTの堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2022-05-20T13:50:07Z) - eGAN: Unsupervised approach to class imbalance using transfer learning [8.100450025624443]
クラス不均衡は、多くの機械学習分類タスクに固有の問題である。
予め訓練された画像分類モデルからエンコーダベースのGenerative Adversarial Network(eGAN)への転送学習を活用することにより、これらの不均衡に対処するための監督されていないアプローチを検討する。
CIFAR-10分類タスクにおいて0.69 F1-scoreの結果が1:2500の不均衡比で得られた。
論文 参考訳(メタデータ) (2021-04-09T02:37:55Z) - Outlier-Robust Learning of Ising Models Under Dobrushin's Condition [57.89518300699042]
本研究では, サンプルの一定割合が逆向きに破壊されるような外乱条件下で, ドブルシンの条件を満たすIsingモデルの学習問題について検討する。
我々の主な成果は、ほぼ最適誤差保証を伴うこの問題に対して、計算効率のよい最初の頑健な学習アルゴリズムを提供することである。
論文 参考訳(メタデータ) (2021-02-03T18:00:57Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。