論文の概要: OpenLDN: Learning to Discover Novel Classes for Open-World
Semi-Supervised Learning
- arxiv url: http://arxiv.org/abs/2207.02261v1
- Date: Tue, 5 Jul 2022 18:51:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-08 07:21:10.969175
- Title: OpenLDN: Learning to Discover Novel Classes for Open-World
Semi-Supervised Learning
- Title(参考訳): OpenLDN: オープンワールドセミスーパービジョンラーニングのための新しいクラスを学習する
- Authors: Mamshad Nayeem Rizve, Navid Kardan, Salman Khan, Fahad Shahbaz Khan,
Mubarak Shah
- Abstract要約: 半教師付き学習(SSL)は、教師付き学習のアノテーションボトルネックに対処する主要なアプローチの1つである。
最近のSSLメソッドは、ラベルなしデータの大規模なリポジトリを有効活用して、ラベル付きデータの小さなセットに依存しながら、パフォーマンスを向上させることができる。
この研究は、ペアワイズ類似度損失を利用して新しいクラスを発見するOpenLDNを導入している。
- 参考スコア(独自算出の注目度): 110.40285771431687
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Semi-supervised learning (SSL) is one of the dominant approaches to address
the annotation bottleneck of supervised learning. Recent SSL methods can
effectively leverage a large repository of unlabeled data to improve
performance while relying on a small set of labeled data. One common assumption
in most SSL methods is that the labeled and unlabeled data are from the same
underlying data distribution. However, this is hardly the case in many
real-world scenarios, which limits their applicability. In this work, instead,
we attempt to solve the recently proposed challenging open-world SSL problem
that does not make such an assumption. In the open-world SSL problem, the
objective is to recognize samples of known classes, and simultaneously detect
and cluster samples belonging to novel classes present in unlabeled data. This
work introduces OpenLDN that utilizes a pairwise similarity loss to discover
novel classes. Using a bi-level optimization rule this pairwise similarity loss
exploits the information available in the labeled set to implicitly cluster
novel class samples, while simultaneously recognizing samples from known
classes. After discovering novel classes, OpenLDN transforms the open-world SSL
problem into a standard SSL problem to achieve additional performance gains
using existing SSL methods. Our extensive experiments demonstrate that OpenLDN
outperforms the current state-of-the-art methods on multiple popular
classification benchmarks while providing a better accuracy/training time
trade-off.
- Abstract(参考訳): 半教師付き学習(SSL)は教師付き学習のアノテーションボトルネックに対処する主要なアプローチの1つである。
最近のSSLメソッドは、ラベルなしデータの大規模なリポジトリを有効活用して、ラベル付きデータの小さなセットに依存しながら、パフォーマンスを向上させることができる。
ほとんどのSSLメソッドでは、ラベル付きデータとラベルなしデータは、同じ基盤となるデータ分布から来ているという仮定が一般的である。
しかし、現実のシナリオの多くでは、適用性に制限があるため、これはほとんどない。
そこで本研究では,最近提案されたオープンワールドSSL問題に対して,そのような仮定をしない解決法を提案する。
オープンワールドSSL問題では、既知のクラスのサンプルを認識し、ラベルなしデータに存在する新しいクラスに属するサンプルを同時に検出し、クラスタ化する。
この研究は、ペアの類似性損失を利用して新しいクラスを発見するOpenLDNを導入する。
このペアワイズ類似性損失は、ラベル付きセットで利用可能な情報を悪用して、既知のクラスからのサンプルを同時に認識しながら、新しいクラスサンプルを暗黙的にクラスタ化する。
新たなクラスを発見した後、OpenLDNはオープンワールドSSL問題を標準SSL問題に変換し、既存のSSLメソッドを使用してさらなるパフォーマンス向上を実現する。
大規模な実験により、OpenLDNは、複数の一般的な分類ベンチマークにおいて、最先端の手法よりも優れた精度/トレーニング時間トレードオフを提供することを示した。
関連論文リスト
- Towards Realistic Long-tailed Semi-supervised Learning in an Open World [0.0]
我々は、既知のカテゴリと新規カテゴリの分布関係を前提としない、よりエフェリアティックなオープンワールドLong-tailed Semi-supervised Learning(textbfROLSSL)を構築する。
提案したROOSSL設定では、二重ステージロジット調整と呼ばれる、シンプルで効果的な解を提案する。
CIFAR100やImageNet100のようなデータセットの実験では、最大50.1%のパフォーマンス改善が示されている。
論文 参考訳(メタデータ) (2024-05-23T12:53:50Z) - Erasing the Bias: Fine-Tuning Foundation Models for Semi-Supervised Learning [4.137391543972184]
半教師付き学習(SSL)は目覚ましい進歩をみせており、多くの方法のバリエーションをもたらしている。
本稿では,FinSSLという新しいSSLアプローチを提案する。
我々は、FineSSLが複数のベンチマークデータセットにSSLの新たな状態を設定し、トレーニングコストを6倍以上削減し、さまざまな微調整と現代的なSSLアルゴリズムをシームレスに統合できることを実証した。
論文 参考訳(メタデータ) (2024-05-20T03:33:12Z) - SSB: Simple but Strong Baseline for Boosting Performance of Open-Set
Semi-Supervised Learning [106.46648817126984]
本稿では,挑戦的で現実的なオープンセットSSL設定について検討する。
目標は、inlierを正しく分類し、outlierを検知することである。
信頼度の高い疑似ラベル付きデータを組み込むことで、不整合分類性能を大幅に改善できることが判明した。
論文 参考訳(メタデータ) (2023-11-17T15:14:40Z) - Semi-Supervised Learning in the Few-Shot Zero-Shot Scenario [14.916971861796384]
Semi-Supervised Learning (SSL)は、ラベル付きデータとラベルなしデータの両方を利用して、モデルのパフォーマンスを向上させるフレームワークである。
既存のSSLメソッドを拡張し、特定のクラスが欠落している状況に対処するための一般的なアプローチを提案する。
実験の結果,最先端のSSL,オープンセットのSSL,オープンワールドのSSLメソッドと比較して,精度が大幅に向上した。
論文 参考訳(メタデータ) (2023-08-27T14:25:07Z) - Improving Open-Set Semi-Supervised Learning with Self-Supervision [13.944469874692459]
オープンセット半教師あり学習(OSSL)は、半教師あり学習における実践的なシナリオを具現化する。
我々は,自己スーパービジョンを通じて,ラベルのないすべてのデータから学習を容易にするOSSLフレームワークを提案する。
提案手法は, 評価されたベンチマーク問題の多くに対して, 最先端の結果をもたらす。
論文 参考訳(メタデータ) (2023-01-24T16:46:37Z) - Towards Realistic Semi-Supervised Learning [73.59557447798134]
オープンワールド環境でSSLに取り組み、未知のクラスと未知のクラスを同時に分類する新しい手法を提案する。
我々のアプローチは、既存の最先端の7つのデータセットよりも大幅に優れています。
論文 参考訳(メタデータ) (2022-07-05T19:04:43Z) - Collaborative Intelligence Orchestration: Inconsistency-Based Fusion of
Semi-Supervised Learning and Active Learning [60.26659373318915]
アクティブラーニング(AL)と半教師付きラーニング(SSL)は2つの効果があるが、しばしば孤立している。
本稿では、SSL-ALの潜在的な優位性をさらに調査するために、革新的な一貫性に基づく仮想aDvErialアルゴリズムを提案する。
2つの実世界のケーススタディは、提案したデータサンプリングアルゴリズムの適用と展開の実践的な産業価値を可視化する。
論文 参考訳(メタデータ) (2022-06-07T13:28:43Z) - Self-supervised Learning is More Robust to Dataset Imbalance [65.84339596595383]
データセット不均衡下での自己教師型学習について検討する。
既製の自己教師型表現は、教師型表現よりもクラス不均衡に対してすでに堅牢である。
我々は、不均衡なデータセット上でSSL表現品質を一貫して改善する、再重み付け正規化手法を考案した。
論文 参考訳(メタデータ) (2021-10-11T06:29:56Z) - OpenMatch: Open-set Consistency Regularization for Semi-supervised
Learning with Outliers [71.08167292329028]
我々はOpenMatchと呼ばれる新しいオープンセットセミスーパーバイザードラーニング(OSSL)アプローチを提案する。
OpenMatchは、1-vs-all(OVA)分類器に基づいた新規検出とFixMatchを統合する。
3つのデータセットで最先端のパフォーマンスを実現し、CIFAR10の未ラベルデータで見えないアウトリーチを検出する上で、完全な教師付きモデルよりも優れています。
論文 参考訳(メタデータ) (2021-05-28T23:57:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。