論文の概要: Robust Semi-Supervised Learning for Self-learning Open-World Classes
- arxiv url: http://arxiv.org/abs/2401.07551v1
- Date: Mon, 15 Jan 2024 09:27:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 17:33:17.651871
- Title: Robust Semi-Supervised Learning for Self-learning Open-World Classes
- Title(参考訳): 自己学習型オープンワールド授業におけるロバスト半教師付き学習
- Authors: Wenjuan Xi, Xin Song, Weili Guo, Yang Yang
- Abstract要約: 実世界のアプリケーションでは、ラベル付きデータは常にラベル付き集合に存在しないクラスを含んでいる。
本稿では,自己学習型オープンワールドクラス(SSOC)のためのオープンワールドSSL手法を提案する。
SSOCは、複数の人気のある分類ベンチマークで最先端のベースラインを上回っている。
- 参考スコア(独自算出の注目度): 5.714673612282175
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing semi-supervised learning (SSL) methods assume that labeled and
unlabeled data share the same class space. However, in real-world applications,
unlabeled data always contain classes not present in the labeled set, which may
cause classification performance degradation of known classes. Therefore,
open-world SSL approaches are researched to handle the presence of multiple
unknown classes in the unlabeled data, which aims to accurately classify known
classes while fine-grained distinguishing different unknown classes. To address
this challenge, in this paper, we propose an open-world SSL method for
Self-learning Open-world Classes (SSOC), which can explicitly self-learn
multiple unknown classes. Specifically, SSOC first defines class center tokens
for both known and unknown classes and autonomously learns token
representations according to all samples with the cross-attention mechanism. To
effectively discover novel classes, SSOC further designs a pairwise similarity
loss in addition to the entropy loss, which can wisely exploit the information
available in unlabeled data from instances' predictions and relationships.
Extensive experiments demonstrate that SSOC outperforms the state-of-the-art
baselines on multiple popular classification benchmarks. Specifically, on the
ImageNet-100 dataset with a novel ratio of 90%, SSOC achieves a remarkable 22%
improvement.
- Abstract(参考訳): 既存の半教師付き学習(SSL)メソッドは、ラベル付きとラベルなしのデータは同じクラス空間を共有していると仮定する。
しかし、実世界のアプリケーションでは、ラベル付きデータは常にラベル付き集合に存在しないクラスを含んでいるため、既知のクラスの分類性能が劣化する可能性がある。
したがって、オープンワールドSSLアプローチは、未知のクラスを微粒化しながら、未知のクラスを正確に分類することを目的として、ラベル付きデータに複数の未知のクラスが存在することを扱うために研究されている。
本稿では,複数の未知クラスを明示的に自己学習できるオープンワールドクラス(ssoc)のためのオープンワールドssl手法を提案する。
具体的には、SSOCはまず、既知のクラスと未知のクラスの両方のクラスセンタートークンを定義し、クロスアテンション機構ですべてのサンプルに従ってトークン表現を自律的に学習する。
新規クラスを効果的に発見するため、ssocはエントロピー損失に加えてペアワイズ類似性損失を更に設計し、インスタンスの予測と関係からラベル付きデータで得られる情報を巧みに活用することができる。
広範な実験により、SSOCは複数の一般的な分類ベンチマークにおいて最先端のベースラインより優れていることが示された。
具体的には、新しい比率90%のImageNet-100データセットでは、SSOCは驚くほど22%の改善を実現している。
関連論文リスト
- Diverse Teacher-Students for Deep Safe Semi-Supervised Learning under Class Mismatch [35.42630035488178]
海外教師学生(textbfDTS)という新しい枠組みを導入する。
教師-学生モデルと教師-学生モデルの両方をラベルなしのサンプルで訓練することにより、DTSは見知らぬクラスの検出を同時に改善しながら、見知らぬクラスの分類を強化することができる。
論文 参考訳(メタデータ) (2024-05-25T06:54:43Z) - Semi-Supervised Learning in the Few-Shot Zero-Shot Scenario [14.916971861796384]
Semi-Supervised Learning (SSL)は、ラベル付きデータとラベルなしデータの両方を利用して、モデルのパフォーマンスを向上させるフレームワークである。
既存のSSLメソッドを拡張し、特定のクラスが欠落している状況に対処するための一般的なアプローチを提案する。
実験の結果,最先端のSSL,オープンセットのSSL,オープンワールドのSSLメソッドと比較して,精度が大幅に向上した。
論文 参考訳(メタデータ) (2023-08-27T14:25:07Z) - Improving Open-Set Semi-Supervised Learning with Self-Supervision [13.944469874692459]
オープンセット半教師あり学習(OSSL)は、半教師あり学習における実践的なシナリオを具現化する。
我々は,自己スーパービジョンを通じて,ラベルのないすべてのデータから学習を容易にするOSSLフレームワークを提案する。
提案手法は, 評価されたベンチマーク問題の多くに対して, 最先端の結果をもたらす。
論文 参考訳(メタデータ) (2023-01-24T16:46:37Z) - Open Long-Tailed Recognition in a Dynamic World [82.91025831618545]
実世界のデータは、しばしば長い尾を持ち、(目に見えないクラスを持つ)オープンな分布を示す。
現実的な認識システムは、多数派(頭)クラスと少数派(尾)クラスの間でバランスを取り、分布を一般化し、見知らぬクラス(オープンクラス)のインスタンスで新規性を認める必要がある。
我々は,Open Long-Tailed Recognition++を,このような自然分布データからの学習として定義し,バランスの取れたテストセット上での分類精度を最適化する。
論文 参考訳(メタデータ) (2022-08-17T15:22:20Z) - Towards Realistic Semi-Supervised Learning [73.59557447798134]
オープンワールド環境でSSLに取り組み、未知のクラスと未知のクラスを同時に分類する新しい手法を提案する。
我々のアプローチは、既存の最先端の7つのデータセットよりも大幅に優れています。
論文 参考訳(メタデータ) (2022-07-05T19:04:43Z) - OpenLDN: Learning to Discover Novel Classes for Open-World
Semi-Supervised Learning [110.40285771431687]
半教師付き学習(SSL)は、教師付き学習のアノテーションボトルネックに対処する主要なアプローチの1つである。
最近のSSLメソッドは、ラベルなしデータの大規模なリポジトリを有効活用して、ラベル付きデータの小さなセットに依存しながら、パフォーマンスを向上させることができる。
この研究は、ペアワイズ類似度損失を利用して新しいクラスを発見するOpenLDNを導入している。
論文 参考訳(メタデータ) (2022-07-05T18:51:05Z) - On Non-Random Missing Labels in Semi-Supervised Learning [114.62655062520425]
Semi-Supervised Learning (SSL)は基本的にラベルの問題である。
SSL に "class" を明示的に組み込んでいます。
提案手法は,既存のベースラインを著しく上回るだけでなく,他のラベルバイアス除去SSL法を上回ります。
論文 参考訳(メタデータ) (2022-06-29T22:01:29Z) - OpenCoS: Contrastive Semi-supervised Learning for Handling Open-set
Unlabeled Data [65.19205979542305]
ラベル付けされていないデータには、実際にはクラス外のサンプルが含まれる。
OpenCoSは、このリアルな半教師付き学習シナリオを扱う方法である。
論文 参考訳(メタデータ) (2021-06-29T06:10:05Z) - Open-World Semi-Supervised Learning [66.90703597468377]
本稿では,従来のクラスを認識するためにモデルを必要とする,新しいオープンワールド半教師付き学習環境を提案する。
データの分類とクラスタ化を同時に行うアプローチであるORCAを提案する。
我々は,ORCAが新しいクラスを正確に発見し,ベンチマーク画像分類データセット上で以前に見られたクラスにサンプルを割り当てることを示した。
論文 参考訳(メタデータ) (2021-02-06T07:11:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。