論文の概要: OpenAUC: Towards AUC-Oriented Open-Set Recognition
- arxiv url: http://arxiv.org/abs/2210.13458v1
- Date: Sat, 22 Oct 2022 08:54:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 13:38:16.475754
- Title: OpenAUC: Towards AUC-Oriented Open-Set Recognition
- Title(参考訳): OpenAUC: AUC指向のオープンセット認識を目指して
- Authors: Zitai Wang, Qianqian Xu, Zhiyong Yang, Yuan He, Xiaochun Cao, Qingming
Huang
- Abstract要約: 従来の機械学習は、トレーニングとテストセットが同じラベル空間を共有するという密接な前提に従っている。
Open-Set Recognition (OSR) は、クローズセットサンプルとオープンセットサンプルの両方で正確な予測を行うことを目的としている。
これらの問題を解決するために,OpenAUCという新しいメトリクスを提案する。
- 参考スコア(独自算出の注目度): 151.5072746015253
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional machine learning follows a close-set assumption that the training
and test set share the same label space. While in many practical scenarios, it
is inevitable that some test samples belong to unknown classes (open-set). To
fix this issue, Open-Set Recognition (OSR), whose goal is to make correct
predictions on both close-set samples and open-set samples, has attracted
rising attention. In this direction, the vast majority of literature focuses on
the pattern of open-set samples. However, how to evaluate model performance in
this challenging task is still unsolved. In this paper, a systematic analysis
reveals that most existing metrics are essentially inconsistent with the
aforementioned goal of OSR: (1) For metrics extended from close-set
classification, such as Open-set F-score, Youden's index, and Normalized
Accuracy, a poor open-set prediction can escape from a low performance score
with a superior close-set prediction. (2) Novelty detection AUC, which measures
the ranking performance between close-set and open-set samples, ignores the
close-set performance. To fix these issues, we propose a novel metric named
OpenAUC. Compared with existing metrics, OpenAUC enjoys a concise pairwise
formulation that evaluates open-set performance and close-set performance in a
coupling manner. Further analysis shows that OpenAUC is free from the
aforementioned inconsistency properties. Finally, an end-to-end learning method
is proposed to minimize the OpenAUC risk, and the experimental results on
popular benchmark datasets speak to its effectiveness.
- Abstract(参考訳): 従来の機械学習は、トレーニングとテストセットが同じラベル空間を共有するという密接な前提に従っている。
多くの実践シナリオにおいて、いくつかのテストサンプルが未知のクラス(オープンセット)に属することは避けられない。
この問題を解決するために、クローズセットサンプルとオープンセットサンプルの両方で正確な予測を行うことを目標とするオープンセット認識(OSR)が注目されている。
この方向では、ほとんどの文献がオープンセット標本のパターンに焦点を当てている。
しかし、この困難なタスクにおけるモデルパフォーマンスの評価方法はまだ未解決である。
本稿では,既存の指標の大部分がOSRの目標と基本的に一致していないことを明らかにする。(1) オープンセットFスコア,ユーデン指数,正規化精度などのクローズセット分類から拡張された指標に対して,より優れたクローズセット予測による低パフォーマンススコアから,貧弱なオープンセット予測を逃れることができる。
2)クローズセットとオープンセット間のランキング性能を測定するノベルティ検出aucはクローズセット性能を無視している。
これらの問題を解決するために,OpenAUCという新しいメトリクスを提案する。
既存のメトリクスと比較して、OpenAUCはオープンセットのパフォーマンスとクローズセットのパフォーマンスを結合的に評価する簡潔なペアワイズ定式化を楽しみます。
さらに分析したところ、OpenAUCは前述の一貫性のない性質から解放されている。
最後に,OpenAUCのリスクを最小限に抑えるために,エンドツーエンドの学習手法を提案する。
関連論文リスト
- Large-Scale Evaluation of Open-Set Image Classification Techniques [1.1249583407496218]
Open-Set Classification (OSC)アルゴリズムは、クローズドとオープンセットの両方の認識能力を最大化することを目的としている。
近年の研究では、このようなアルゴリズムが小規模なデータセット上で有効であることが示されているが、実験が限定されているため、実世界の問題における性能評価は困難である。
論文 参考訳(メタデータ) (2024-06-13T13:43:01Z) - Open-Set Recognition in the Age of Vision-Language Models [9.306738687897889]
オープン語彙認識のための視覚言語モデル(VLM)が,インターネット規模のデータセットで訓練されているため,本質的にオープンセットモデルであるかどうかを検討する。
有限クエリセットを介してクローズドセットの仮定を導入し、オープンセット条件に対して脆弱になる。
より多くのクラスを含むクエリセットのサイズを中立的に増やすことは、この問題を軽減するのではなく、タスクパフォーマンスの低下とオープンセットのパフォーマンスの低下を引き起こすことを示す。
論文 参考訳(メタデータ) (2024-03-25T08:14:22Z) - Open-Set Facial Expression Recognition [42.62439125553367]
顔表情認識(FER)モデルは一般的に、7つの基本クラスを固定したデータセットで訓練される。
最近の研究では、基本的なものよりもはるかに多くの表現が存在することが指摘されている。
オープンセットFERタスクを初めて提案する。
論文 参考訳(メタデータ) (2024-01-23T05:57:50Z) - M-Tuning: Prompt Tuning with Mitigated Label Bias in Open-Set Scenarios [103.6153593636399]
緩和ラベルバイアス(M-Tuning)を用いた視覚言語プロンプトチューニング手法を提案する。
これはWordNetからのオープンワードを導入し、クローズドセットラベルワードのみからもっと多くのプロンプトテキストを形成する単語の範囲を広げ、シミュレートされたオープンセットシナリオでプロンプトをチューニングする。
提案手法は,様々なスケールのデータセット上で最高の性能を達成し,広範囲にわたるアブレーション研究もその有効性を検証した。
論文 参考訳(メタデータ) (2023-03-09T09:05:47Z) - Open-Set Likelihood Maximization for Few-Shot Learning [36.97433312193586]
我々はFew-Shot Open-Set Recognition (FSOSR) 問題、すなわちいくつかのラベル付きサンプルしか持たないクラスのインスタンスを分類する問題に取り組む。
提案手法では,推論時に非競合なクエリインスタンスを利用する。
既存のトランスダクティブ手法はオープンセットのシナリオではうまく動作しないという観測により,最大極大原理の一般化を提案する。
論文 参考訳(メタデータ) (2023-01-20T01:56:19Z) - Reconstruction guided Meta-learning for Few Shot Open Set Recognition [31.49168444631114]
ReFOCS (Reconstructing Exemplar-based Few-shot Open-set Classifier) を提案する。
新規な再構築型メタラーニング戦略であるReFOCSを用いてFSOSRを効率化する。
ReFOCSは複数の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2021-07-31T23:23:35Z) - OpenMatch: Open-set Consistency Regularization for Semi-supervised
Learning with Outliers [71.08167292329028]
我々はOpenMatchと呼ばれる新しいオープンセットセミスーパーバイザードラーニング(OSSL)アプローチを提案する。
OpenMatchは、1-vs-all(OVA)分類器に基づいた新規検出とFixMatchを統合する。
3つのデータセットで最先端のパフォーマンスを実現し、CIFAR10の未ラベルデータで見えないアウトリーチを検出する上で、完全な教師付きモデルよりも優れています。
論文 参考訳(メタデータ) (2021-05-28T23:57:15Z) - WSSOD: A New Pipeline for Weakly- and Semi-Supervised Object Detection [75.80075054706079]
弱機能および半教師付きオブジェクト検出フレームワーク(WSSOD)を提案する。
エージェント検出器は、まず関節データセット上でトレーニングされ、弱注釈画像上で擬似境界ボックスを予測するために使用される。
提案フレームワークはPASCAL-VOC と MSCOCO のベンチマークで顕著な性能を示し,完全教師付き環境で得られたものと同等の性能を達成している。
論文 参考訳(メタデータ) (2021-05-21T11:58:50Z) - OpenGAN: Open-Set Recognition via Open Data Generation [76.00714592984552]
実世界の機械学習システムは、トレーニングデータとは異なる新しいテストデータを分析する必要がある。
オープンセット識別のための概念的にエレガントな2つのアイデアは、1) オープンvs閉鎖二元判別器を識別的に学習し、2) GAN を用いてクローズドセットデータ分布を教師なし学習する。
OpenGANは、それぞれのアプローチの限界をいくつかの技術的な洞察と組み合わせて解決します。
論文 参考訳(メタデータ) (2021-04-07T06:19:24Z) - Few-Shot Open-Set Recognition using Meta-Learning [72.15940446408824]
オープンセット認識の問題点を考察する。
新しいoPen sEt mEta LEaRning (PEELER)アルゴリズムが導入された。
論文 参考訳(メタデータ) (2020-05-27T23:49:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。