論文の概要: OpenMix: Exploring Outlier Samples for Misclassification Detection
- arxiv url: http://arxiv.org/abs/2303.17093v1
- Date: Thu, 30 Mar 2023 01:47:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-31 14:42:49.047150
- Title: OpenMix: Exploring Outlier Samples for Misclassification Detection
- Title(参考訳): OpenMix: 誤分類検出のための外部サンプルの探索
- Authors: Fei Zhu, Zhen Cheng, Xu-Yao Zhang, Cheng-Lin Liu
- Abstract要約: 我々は、非ターゲットクラスからのラベル付きサンプルとして、容易に利用できる外れ値サンプルを利用して、誤分類エラーを検出する。
オープンワールドの知識を取り入れたOpenMixという新しい手法を提案する。
- 参考スコア(独自算出の注目度): 37.43981354073841
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reliable confidence estimation for deep neural classifiers is a challenging
yet fundamental requirement in high-stakes applications. Unfortunately, modern
deep neural networks are often overconfident for their erroneous predictions.
In this work, we exploit the easily available outlier samples, i.e., unlabeled
samples coming from non-target classes, for helping detect misclassification
errors. Particularly, we find that the well-known Outlier Exposure, which is
powerful in detecting out-of-distribution (OOD) samples from unknown classes,
does not provide any gain in identifying misclassification errors. Based on
these observations, we propose a novel method called OpenMix, which
incorporates open-world knowledge by learning to reject uncertain
pseudo-samples generated via outlier transformation. OpenMix significantly
improves confidence reliability under various scenarios, establishing a strong
and unified framework for detecting both misclassified samples from known
classes and OOD samples from unknown classes. The code is publicly available at
https://github.com/Impression2805/OpenMix.
- Abstract(参考訳): ディープニューラルネットワーク分類器の信頼性の高い信頼度推定は、高スループットアプリケーションにおいて難しいが基本的な要件である。
残念なことに、現代のディープニューラルネットワークは誤った予測を過信することが多い。
本研究では,非ターゲットクラスからのラベルなしサンプルなど,容易に使用可能な外れ値サンプルを活用し,誤分類エラーの検出を支援する。
特に,未知のクラスからout-of-distribution (ood) サンプルを検出するのに強力なoutlier exposureは,誤分類エラーの識別に何の利益も与えないことがわかった。
そこで本研究では,オープンワールド知識を組み込んだ新しい手法であるopenmixを提案する。
OpenMixは様々なシナリオにおいて信頼性を著しく向上させ、既知のクラスからの誤分類サンプルと未知クラスからのOODサンプルの両方を検出する強力な統一されたフレームワークを確立する。
コードはhttps://github.com/Impression2805/OpenMixで公開されている。
関連論文リスト
- Revisiting Confidence Estimation: Towards Reliable Failure Prediction [53.79160907725975]
多くの信頼度推定法は誤分類誤りを検出するのに有害である。
本稿では, 最先端の故障予測性能を示す平坦な最小値を求めることにより, 信頼性ギャップを拡大することを提案する。
論文 参考訳(メタデータ) (2024-03-05T11:44:14Z) - Bidirectional Uncertainty-Based Active Learning for Open Set Annotation [28.624321743629825]
オープンセットのシナリオにおけるアクティブな学習は、最も価値のある例を特定するという、新たな課題を示している。
従来の手法では、信頼性の低い情報的事例の選択が優先されていた。
最近の手法は、最も可能性の高い既知の例を好んでいる。
双方向不確実性に基づくアクティブラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-23T08:59:04Z) - Entropic Open-set Active Learning [30.91182106918793]
アクティブラーニング(AL)は、ラベルなしデータのプールから最も有用なアノテーションサンプルを選択することで、ディープモデルの性能を向上させることを目的としている。
クローズドセット設定での優れたパフォーマンスにもかかわらず、ほとんどのALメソッドは、ラベルなしデータが未知のカテゴリを含む実世界のシナリオで失敗する。
本稿では,未知分布と未知分布の両方を効果的に活用して,ALラウンド中の情報的サンプルを選択するエントロピー的オープンセットALフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-21T18:47:12Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Large-Scale Open-Set Classification Protocols for ImageNet [0.0]
Open-Set Classification (OSC) は、実世界のシナリオにクローズドセットの分類モデルを適用することを目的としている。
本稿では,未知のクラスと未知のクラスの間で,異なるレベルの類似性を持つ自然画像のリッチなデータセットを提供する3つのオープンセットプロトコルを提案する。
本稿では,ディープラーニングモデルのトレーニングが既知のサンプルの分類と未知のサンプルの拒絶の両方に対処するかどうかを評価するために,新しい検証基準を提案する。
論文 参考訳(メタデータ) (2022-10-13T07:01:34Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z) - Open Set Recognition with Conditional Probabilistic Generative Models [51.40872765917125]
オープンセット認識のための条件付き確率生成モデル(CPGM)を提案する。
CPGMは未知のサンプルを検出できるが、異なる潜在特徴を条件付きガウス分布に近似させることで、既知のクラスを分類できる。
複数のベンチマークデータセットの実験結果から,提案手法がベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2020-08-12T06:23:49Z) - Conditional Gaussian Distribution Learning for Open Set Recognition [10.90687687505665]
オープンセット認識のための条件付きガウス分布学習(CGDL)を提案する。
未知のサンプルを検出することに加えて、異なる潜伏特徴を異なるガウスモデルに近似させることにより、既知のサンプルを分類することもできる。
いくつかの標準画像に対する実験により,提案手法はベースライン法を著しく上回り,新たな最先端結果が得られることが明らかになった。
論文 参考訳(メタデータ) (2020-03-19T14:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。