論文の概要: S2OSC: A Holistic Semi-Supervised Approach for Open Set Classification
- arxiv url: http://arxiv.org/abs/2008.04662v1
- Date: Tue, 11 Aug 2020 12:26:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 10:46:46.973875
- Title: S2OSC: A Holistic Semi-Supervised Approach for Open Set Classification
- Title(参考訳): s2osc:開集合分類のための包括的半教師付きアプローチ
- Authors: Yang Yang, Zhen-Qiang Sun, Hui Xiong, Jian Yang
- Abstract要約: 我々は、クラス外のインスタンスフィルタリングとモデル再学習をトランスダクティブな方法で組み込んだOSCアルゴリズムS2OSCを開発した。
S2OSCは、CIFAR-10上のF1の85.4%と300の擬似ラベルを含む様々なOSCタスクで最先端のパフォーマンスを実現している。
- 参考スコア(独自算出の注目度): 34.31116140704079
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Open set classification (OSC) tackles the problem of determining whether the
data are in-class or out-of-class during inference, when only provided with a
set of in-class examples at training time. Traditional OSC methods usually
train discriminative or generative models with in-class data, then utilize the
pre-trained models to classify test data directly. However, these methods
always suffer from embedding confusion problem, i.e., partial out-of-class
instances are mixed with in-class ones of similar semantics, making it
difficult to classify. To solve this problem, we unify semi-supervised learning
to develop a novel OSC algorithm, S2OSC, that incorporates out-of-class
instances filtering and model re-training in a transductive manner. In detail,
given a pool of newly coming test data, S2OSC firstly filters distinct
out-of-class instances using the pre-trained model, and annotates super-class
for them. Then, S2OSC trains a holistic classification model by combing
in-class and out-of-class labeled data and remaining unlabeled test data in
semi-supervised paradigm, which also integrates pre-trained model for knowledge
distillation to further separate mixed instances. Despite its simplicity, the
experimental results show that S2OSC achieves state-of-the-art performance
across a variety of OSC tasks, including 85.4% of F1 on CIFAR-10 with only 300
pseudo-labels. We also demonstrate how S2OSC can be expanded to incremental OSC
setting effectively with streaming data.
- Abstract(参考訳): オープンセット分類(OSC)は、トレーニング時にクラス内のサンプルのセットのみを提供する場合、データが推論中にクラス内かクラス外かを決定する問題に取り組む。
従来のosc手法は通常、クラス内データで識別モデルや生成モデルを訓練し、事前訓練されたモデルを使用してテストデータを直接分類する。
しかし、これらのメソッドは常に組み込まれている混乱問題、すなわち、クラス外のインスタンスは、類似のセマンティクスのクラス内インスタンスと混ざり合っており、分類が困難である。
この問題を解決するために,半教師付き学習を統一し,クラス外インスタンスフィルタリングとモデル再トレーニングを組み込んだ新しいoscアルゴリズムs2oscを開発した。
詳しくは、新しくやってくるテストデータのプールを考えると、s2oscは事前にトレーニングされたモデルを使用して、クラス外のインスタンスを最初にフィルタリングし、スーパークラスにアノテートする。
次に、S2OSCは、クラス内およびクラス外のラベル付きデータとラベルなしテストデータとを半教師付きパラダイムに組み合わせ、総合的な分類モデルを訓練する。
その単純さにもかかわらず、実験の結果、S2OSCは、CIFAR-10上のF1の85.4%と、300の擬似ラベルしか持たない様々なOSCタスクで最先端のパフォーマンスを達成した。
また、ストリーミングデータを用いて、S2OSCをインクリメンタルOSC設定に効果的に拡張する方法を示す。
関連論文リスト
- Diverse Teacher-Students for Deep Safe Semi-Supervised Learning under Class Mismatch [35.42630035488178]
海外教師学生(textbfDTS)という新しい枠組みを導入する。
教師-学生モデルと教師-学生モデルの両方をラベルなしのサンプルで訓練することにより、DTSは見知らぬクラスの検出を同時に改善しながら、見知らぬクラスの分類を強化することができる。
論文 参考訳(メタデータ) (2024-05-25T06:54:43Z) - Task-customized Masked AutoEncoder via Mixture of Cluster-conditional
Experts [104.9871176044644]
Masked Autoencoder (MAE) は,モデル事前学習において有望な結果が得られる自己教師型学習手法である。
我々は、新しいMAEベースの事前学習パラダイム、Mixture of Cluster-conditional Experts (MoCE)を提案する。
MoCEは、クラスタ条件ゲートを使用して、各専門家にセマンティックなイメージのみをトレーニングする。
論文 参考訳(メタデータ) (2024-02-08T03:46:32Z) - Learning with Noisy Labels Using Collaborative Sample Selection and
Contrastive Semi-Supervised Learning [76.00798972439004]
Collaborative Sample Selection (CSS)は、特定されたクリーンセットからノイズの多いサンプルを削除する。
半教師付き学習において、対照的な損失を伴う協調学習機構を導入する。
論文 参考訳(メタデータ) (2023-10-24T05:37:20Z) - CA2: Class-Agnostic Adaptive Feature Adaptation for One-class
Classification [37.96353879426153]
一クラス分類のためのクラス非依存適応型特徴適応法(CA2)を提案する。
センターベース手法を未知のクラスに一般化し、事前学習ネットワークに存在する事前学習に基づいて、この目的を最適化する。
CA2は1から1024までのトレーニングデータクラスのOCCパフォーマンスを継続的に改善し、最先端のメソッドよりも優れています。
論文 参考訳(メタデータ) (2023-09-04T09:39:34Z) - Large-Scale Open-Set Classification Protocols for ImageNet [0.0]
Open-Set Classification (OSC) は、実世界のシナリオにクローズドセットの分類モデルを適用することを目的としている。
本稿では,未知のクラスと未知のクラスの間で,異なるレベルの類似性を持つ自然画像のリッチなデータセットを提供する3つのオープンセットプロトコルを提案する。
本稿では,ディープラーニングモデルのトレーニングが既知のサンプルの分類と未知のサンプルの拒絶の両方に対処するかどうかを評価するために,新しい検証基準を提案する。
論文 参考訳(メタデータ) (2022-10-13T07:01:34Z) - Open Set Recognition using Vision Transformer with an Additional
Detection Head [6.476341388938684]
視覚変換器(ViT)技術に基づくオープンセット認識(OSR)の新しい手法を提案する。
まず、閉集合分類を行うためにViTモデルを訓練する。
そして、ViTによって抽出された埋め込み特徴に付加検出ヘッドを取り付け、既知のデータの表現をクラス固有のクラスタにコンパクトに強制するように訓練する。
論文 参考訳(メタデータ) (2022-03-16T07:34:58Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - Improving Calibration for Long-Tailed Recognition [68.32848696795519]
このようなシナリオにおけるキャリブレーションとパフォーマンスを改善する2つの方法を提案します。
異なるサンプルによるデータセットバイアスに対して,シフトバッチ正規化を提案する。
提案手法は,複数の長尾認識ベンチマークデータセットに新しいレコードをセットする。
論文 参考訳(メタデータ) (2021-04-01T13:55:21Z) - Learning Adaptive Embedding Considering Incremental Class [55.21855842960139]
CIL(Class-Incremental Learning)は,未知のクラスを逐次生成するストリーミングデータを用いて,信頼性の高いモデルをトレーニングすることを目的としている。
従来のクローズドセット学習とは異なり、CILには2つの大きな課題がある。
新たなクラスが検出された後、以前のデータ全体を使用して再トレーニングすることなく、モデルを更新する必要がある。
論文 参考訳(メタデータ) (2020-08-31T04:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。