論文の概要: Improving Open-Set Semi-Supervised Learning with Self-Supervision
- arxiv url: http://arxiv.org/abs/2301.10127v1
- Date: Tue, 24 Jan 2023 16:46:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-25 13:09:31.256476
- Title: Improving Open-Set Semi-Supervised Learning with Self-Supervision
- Title(参考訳): 自己スーパービジョンによるオープンセットセミスーパービジョン学習の改善
- Authors: Erik Wallin, Lennart Svensson, Fredrik Kahl, Lars Hammarstrand
- Abstract要約: Open-set semi-supervised learning (OSSL)は、ラベル付きセットに存在しないクラスを含む、半教師付き学習の現実的な設定である。
我々は,自己スーパービジョンを通じて,ラベルのないすべてのデータから学習を容易にするOSSLフレームワークを提案する。
- 参考スコア(独自算出の注目度): 16.757456364034798
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Open-set semi-supervised learning (OSSL) is a realistic setting of
semi-supervised learning where the unlabeled training set contains classes that
are not present in the labeled set. Many existing OSSL methods assume that
these out-of-distribution data are harmful and put effort into excluding data
from unknown classes from the training objective. In contrast, we propose an
OSSL framework that facilitates learning from all unlabeled data through
self-supervision. Additionally, we utilize an energy-based score to accurately
recognize data belonging to the known classes, making our method well-suited
for handling uncurated data in deployment. We show through extensive
experimental evaluations on several datasets that our method shows overall
unmatched robustness and performance in terms of closed-set accuracy and
open-set recognition compared with state-of-the-art for OSSL. Our code will be
released upon publication.
- Abstract(参考訳): Open-set semi-supervised learning (OSSL)は、ラベル付き集合に存在しないクラスを含む半教師付き学習の現実的な設定である。
既存のOSSLメソッドの多くは、これらのアウト・オブ・ディストリビューションデータは有害であると仮定し、トレーニング目標から未知のクラスからデータを除外する努力を払っている。
対照的に,自己スーパービジョンによるラベルなしデータからの学習を容易にするosslフレームワークを提案する。
さらに,エネルギベースのスコアを用いて既知のクラスに属するデータを正確に認識し,デプロイ時の未処理データの処理に適していることを示す。
提案手法は,OSSLの最先端技術と比較して,クローズドセットの精度とオープンセットの認識の観点から,不整合性や性能を総合的に示すものである。
私たちのコードは出版時に公開される。
関連論文リスト
- Complementing Semi-Supervised Learning with Uncertainty Quantification [6.612035830987296]
そこで本研究では,アレータ性およびてんかん性不確実性定量化に依存する,教師なし不確実性認識の新たな目的を提案する。
CIFAR-100やMini-ImageNetのような複雑なデータセットでは,結果が最先端の成果よりも優れています。
論文 参考訳(メタデータ) (2022-07-22T00:15:02Z) - Towards Realistic Semi-Supervised Learning [73.59557447798134]
オープンワールド環境でSSLに取り組み、未知のクラスと未知のクラスを同時に分類する新しい手法を提案する。
我々のアプローチは、既存の最先端の7つのデータセットよりも大幅に優れています。
論文 参考訳(メタデータ) (2022-07-05T19:04:43Z) - Open-Set Semi-Supervised Learning for 3D Point Cloud Understanding [62.17020485045456]
半教師付き学習(SSL)では、ラベル付きデータと同じ分布からラベル付きデータが引き出されることが一般的である。
サンプル重み付けによりラベルなしデータを選択的に活用することを提案する。
論文 参考訳(メタデータ) (2022-05-02T16:09:17Z) - Class-Aware Contrastive Semi-Supervised Learning [51.205844705156046]
本研究では,擬似ラベル品質を向上し,実環境におけるモデルの堅牢性を高めるため,CCSSL(Class-Aware Contrastive Semi-Supervised Learning)と呼ばれる一般的な手法を提案する。
提案するCCSSLは,標準データセットCIFAR100とSTL10の最先端SSLメソッドに対して,大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2022-03-04T12:18:23Z) - Trash to Treasure: Harvesting OOD Data with Cross-Modal Matching for
Open-Set Semi-Supervised Learning [101.28281124670647]
オープンセット半教師付き学習(Open-set SSL)では、ラベルなしデータにOOD(Out-of-distribution)サンプルを含む、難しいが実用的なシナリオを調査する。
我々は、OODデータの存在を効果的に活用し、特徴学習を増強する新しいトレーニングメカニズムを提案する。
我々のアプローチは、オープンセットSSLのパフォーマンスを大幅に向上させ、最先端技術よりも大きなマージンで性能を向上します。
論文 参考訳(メタデータ) (2021-08-12T09:14:44Z) - OpenCoS: Contrastive Semi-supervised Learning for Handling Open-set
Unlabeled Data [65.19205979542305]
ラベル付けされていないデータには、実際にはクラス外のサンプルが含まれる。
OpenCoSは、このリアルな半教師付き学習シナリオを扱う方法である。
論文 参考訳(メタデータ) (2021-06-29T06:10:05Z) - OpenMatch: Open-set Consistency Regularization for Semi-supervised
Learning with Outliers [71.08167292329028]
我々はOpenMatchと呼ばれる新しいオープンセットセミスーパーバイザードラーニング(OSSL)アプローチを提案する。
OpenMatchは、1-vs-all(OVA)分類器に基づいた新規検出とFixMatchを統合する。
3つのデータセットで最先端のパフォーマンスを実現し、CIFAR10の未ラベルデータで見えないアウトリーチを検出する上で、完全な教師付きモデルよりも優れています。
論文 参考訳(メタデータ) (2021-05-28T23:57:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。