論文の概要: The Devil is in the Wrongly-classified Samples: Towards Unified Open-set
Recognition
- arxiv url: http://arxiv.org/abs/2302.04002v1
- Date: Wed, 8 Feb 2023 11:34:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-09 16:38:45.589278
- Title: The Devil is in the Wrongly-classified Samples: Towards Unified Open-set
Recognition
- Title(参考訳): 悪は誤って分類されたサンプルにある:統一されたオープンセット認識を目指して
- Authors: Jun Cen, Di Luan, Shiwei Zhang, Yixuan Pei, Yingya Zhang, Deli Zhao,
Shaojie Shen, Qifeng Chen
- Abstract要約: Open-set Recognition (OSR) は、トレーニングプロセス中にクラスが見えないテストサンプルを特定することを目的としている。
近年,Unified Open-set Recognition (UOSR) が提案されている。
- 参考スコア(独自算出の注目度): 61.28722817272917
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Open-set Recognition (OSR) aims to identify test samples whose classes are
not seen during the training process. Recently, Unified Open-set Recognition
(UOSR) has been proposed to reject not only unknown samples but also known but
wrongly classified samples, which tends to be more practical in real-world
applications. The UOSR draws little attention since it is proposed, but we find
sometimes it is even more practical than OSR in the real world applications, as
evaluation results of known but wrongly classified samples are also wrong like
unknown samples. In this paper, we deeply analyze the UOSR task under different
training and evaluation settings to shed light on this promising research
direction. For this purpose, we first evaluate the UOSR performance of several
OSR methods and show a significant finding that the UOSR performance
consistently surpasses the OSR performance by a large margin for the same
method. We show that the reason lies in the known but wrongly classified
samples, as their uncertainty distribution is extremely close to unknown
samples rather than known and correctly classified samples. Second, we analyze
how the two training settings of OSR (i.e., pre-training and outlier exposure)
influence the UOSR. We find although they are both beneficial for
distinguishing known and correctly classified samples from unknown samples,
pre-training is also helpful for identifying known but wrongly classified
samples while outlier exposure is not. In addition to different training
settings, we also formulate a new evaluation setting for UOSR which is called
few-shot UOSR, where only one or five samples per unknown class are available
during evaluation to help identify unknown samples. We propose FS-KNNS for the
few-shot UOSR to achieve state-of-the-art performance under all settings.
- Abstract(参考訳): Open-set Recognition (OSR) は、トレーニングプロセス中にクラスが見えないテストサンプルを特定することを目的としている。
近年、統一オープンセット認識 (unified open-set recognition, uosr) は未知のサンプルだけでなく、既知のサンプルも否定することが提案されている。
UOSRは提案されてからほとんど注目されていないが、未知のサンプルと同様、未知の分類されたサンプルの評価結果が間違っているため、実世界のアプリケーションではOSRよりも実用的であることがある。
本稿では,UOSRタスクを異なるトレーニングおよび評価設定下で深く分析し,この有望な研究方向性を明らかにする。
そこで本研究では,いくつかのosr法のuosr性能をまず評価し,同一手法においてuosr性能がosr性能を一貫して上回っていることを示す。
その結果,不確かさ分布は未知の試料に非常に近いため,未知の分類標本よりも未知の分類標本に非常に近いことが明らかとなった。
第2に、OSRの2つのトレーニング設定(事前トレーニングと外部露出)がUOSRにどのように影響するかを分析する。
未知のサンプルから既知の分類標本と正しく分類された試料を区別するのに有用であるが、事前訓練は未知の分類標本を識別するのにも有用である。
異なるトレーニング設定に加えて、未知のクラスごとに1つまたは5つのサンプルしか使用できないUOSRと呼ばれるUOSRの新しい評価設定を定式化し、未知のサンプルを特定するのに役立てる。
FS-KNNSを複数ショットのUOSRに対して提案し,全設定で最先端性能を実現する。
関連論文リスト
- Open Set Recognition for Random Forest [4.266270583680947]
実世界の分類タスクでは、全てのクラスを消費するトレーニング例を収集することは困難である。
ランダム森林に対するオープンセット認識機能を実現するための新しい手法を提案する。
提案手法は,合成データセットと実世界のデータセットの両方で検証される。
論文 参考訳(メタデータ) (2024-08-01T04:21:14Z) - Exploring Diverse Representations for Open Set Recognition [51.39557024591446]
オープンセット認識(OSR)では、テスト中に未知のサンプルを拒絶しながら、クローズドセットに属するサンプルを分類する必要がある。
現在、生成モデルはOSRの差別モデルよりもよく機能している。
本稿では,多種多様な表現を識別的に学習するMulti-Expert Diverse Attention Fusion(MEDAF)を提案する。
論文 参考訳(メタデータ) (2024-01-12T11:40:22Z) - Entropic Open-set Active Learning [30.91182106918793]
アクティブラーニング(AL)は、ラベルなしデータのプールから最も有用なアノテーションサンプルを選択することで、ディープモデルの性能を向上させることを目的としている。
クローズドセット設定での優れたパフォーマンスにもかかわらず、ほとんどのALメソッドは、ラベルなしデータが未知のカテゴリを含む実世界のシナリオで失敗する。
本稿では,未知分布と未知分布の両方を効果的に活用して,ALラウンド中の情報的サンプルを選択するエントロピー的オープンセットALフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-21T18:47:12Z) - OpenAUC: Towards AUC-Oriented Open-Set Recognition [151.5072746015253]
従来の機械学習は、トレーニングとテストセットが同じラベル空間を共有するという密接な前提に従っている。
Open-Set Recognition (OSR) は、クローズセットサンプルとオープンセットサンプルの両方で正確な予測を行うことを目的としている。
これらの問題を解決するために,OpenAUCという新しいメトリクスを提案する。
論文 参考訳(メタデータ) (2022-10-22T08:54:15Z) - Reducing Training Sample Memorization in GANs by Training with
Memorization Rejection [80.0916819303573]
本稿では,トレーニング中のトレーニングサンプルのほぼ重複する生成サンプルを拒否する学習手法であるリジェクション記憶法を提案する。
我々のスキームは単純で汎用的であり、任意のGANアーキテクチャに直接適用することができる。
論文 参考訳(メタデータ) (2022-10-21T20:17:50Z) - Large-Scale Open-Set Classification Protocols for ImageNet [0.0]
Open-Set Classification (OSC) は、実世界のシナリオにクローズドセットの分類モデルを適用することを目的としている。
本稿では,未知のクラスと未知のクラスの間で,異なるレベルの類似性を持つ自然画像のリッチなデータセットを提供する3つのオープンセットプロトコルを提案する。
本稿では,ディープラーニングモデルのトレーニングが既知のサンプルの分類と未知のサンプルの拒絶の両方に対処するかどうかを評価するために,新しい検証基準を提案する。
論文 参考訳(メタデータ) (2022-10-13T07:01:34Z) - Multi-Attribute Open Set Recognition [7.012240324005977]
従来のOSRを多属性設定に一般化する新しい問題設定を提案する。
これらのベースラインは、トレーニングデータセットに急激な相関が存在する場合、ショートカットに対して脆弱であることを示す。
我々は、この挙動が、合成データセットと実世界のデータセットの両方で異なるベースラインで一致していることを示す実証的な証拠を提供する。
論文 参考訳(メタデータ) (2022-08-14T09:04:52Z) - Reconstruction guided Meta-learning for Few Shot Open Set Recognition [31.49168444631114]
ReFOCS (Reconstructing Exemplar-based Few-shot Open-set Classifier) を提案する。
新規な再構築型メタラーニング戦略であるReFOCSを用いてFSOSRを効率化する。
ReFOCSは複数の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2021-07-31T23:23:35Z) - Jo-SRC: A Contrastive Approach for Combating Noisy Labels [58.867237220886885]
Jo-SRC (Joint Sample Selection and Model Regularization based on Consistency) というノイズロバスト手法を提案する。
具体的には、対照的な学習方法でネットワークをトレーニングする。
各サンプルの2つの異なるビューからの予測は、クリーンまたは分布不足の「可能性」を推定するために使用されます。
論文 参考訳(メタデータ) (2021-03-24T07:26:07Z) - Open Set Recognition with Conditional Probabilistic Generative Models [51.40872765917125]
オープンセット認識のための条件付き確率生成モデル(CPGM)を提案する。
CPGMは未知のサンプルを検出できるが、異なる潜在特徴を条件付きガウス分布に近似させることで、既知のクラスを分類できる。
複数のベンチマークデータセットの実験結果から,提案手法がベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2020-08-12T06:23:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。