論文の概要: Prompt-driven efficient Open-set Semi-supervised Learning
- arxiv url: http://arxiv.org/abs/2209.14205v1
- Date: Wed, 28 Sep 2022 16:25:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 17:22:08.570964
- Title: Prompt-driven efficient Open-set Semi-supervised Learning
- Title(参考訳): プロンプト駆動型効率的なオープンセット半教師付き学習
- Authors: Haoran Li, Chun-Mei Feng, Tao Zhou, Yong Xu and Xiaojun Chang
- Abstract要約: オープンセット半教師付き学習(OSSL)は関心を集めており、未ラベルデータにのみOOD(Out-of-distribution)サンプルが組み込まれているというより実践的なシナリオを調査している。
我々はOpenPromptと呼ばれる,プロンプト駆動の効率的なOSSLフレームワークを提案する。
- 参考スコア(独自算出の注目度): 52.30303262499391
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Open-set semi-supervised learning (OSSL) has attracted growing interest,
which investigates a more practical scenario where out-of-distribution (OOD)
samples are only contained in unlabeled data. Existing OSSL methods like
OpenMatch learn an OOD detector to identify outliers, which often update all
modal parameters (i.e., full fine-tuning) to propagate class information from
labeled data to unlabeled ones. Currently, prompt learning has been developed
to bridge gaps between pre-training and fine-tuning, which shows higher
computational efficiency in several downstream tasks. In this paper, we propose
a prompt-driven efficient OSSL framework, called OpenPrompt, which can
propagate class information from labeled to unlabeled data with only a small
number of trainable parameters. We propose a prompt-driven joint space learning
mechanism to detect OOD data by maximizing the distribution gap between ID and
OOD samples in unlabeled data, thereby our method enables the outliers to be
detected in a new way. The experimental results on three public datasets show
that OpenPrompt outperforms state-of-the-art methods with less than 1% of
trainable parameters. More importantly, OpenPrompt achieves a 4% improvement in
terms of AUROC on outlier detection over a fully supervised model on CIFAR10.
- Abstract(参考訳): open-set semi-supervised learning (ossl) が注目を集めており、アウトオブディストリビューション(ood)サンプルがラベルなしのデータにのみ含まれる、より実用的なシナリオを調査している。
OpenMatchのような既存のOSSLメソッドは、ラベル付きデータからラベルなしデータへのクラス情報を伝達するために、全てのパラメータ(フル微調整)を更新するOOD検出器を学習する。
現在、事前学習と微調整のギャップを埋めるために素早い学習が開発されており、下流タスクの計算効率が向上している。
本稿では,ラベル付きからラベル付きデータへのクラス情報を少数のトレーニング可能なパラメータで伝達する,OpenPromptと呼ばれる,プロンプト駆動の効率的なOSSLフレームワークを提案する。
我々は,未ラベルデータにおけるIDとOODサンプルの分布ギャップを最大化することにより,OODデータを検出するための,即時駆動型共同空間学習機構を提案する。
3つの公開データセットの実験結果は、OpenPromptがトレーニング可能なパラメータの1%未満で最先端のメソッドより優れていることを示している。
さらに重要なことに、openprompt は cifar10 の完全な教師付きモデルよりも auroc on outlier detection の点で 4% の改善を達成している。
関連論文リスト
- Collaborative Feature-Logits Contrastive Learning for Open-Set Semi-Supervised Object Detection [75.02249869573994]
オープンセットのシナリオでは、ラベルなしデータセットには、イン・ディストリビューション(ID)クラスとアウト・オブ・ディストリビューション(OOD)クラスの両方が含まれている。
このような設定で半教師付き検出器を適用すると、OODクラスをIDクラスとして誤分類する可能性がある。
我々は、CFL-Detector(Collaborative Feature-Logits Detector)と呼ばれるシンプルで効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-11-20T02:57:35Z) - SCOMatch: Alleviating Overtrusting in Open-set Semi-supervised Learning [25.508200663171625]
オープンセット半教師付き学習(OSSL)は、実用的なオープンセット未ラベルデータを使用する。
以前のOSSLメソッドはラベル付きIDデータを過信する傾向に悩まされていた。
我々は,OODサンプルを新たなクラスとして扱い,新たなSSLプロセスを形成する新しいOSSLであるSCOMatchを提案する。
論文 参考訳(メタデータ) (2024-09-26T03:47:34Z) - Robust Semi-supervised Learning by Wisely Leveraging Open-set Data [48.67897991121204]
Open-set Semi-supervised Learning (OSSL)は、ラベル付けされていないデータはラベル付けされていないクラスから来る可能性がある、という現実的な設定を持っている。
Wese Open-set Semi-supervised Learning (WiseOpen) は、モデルのトレーニングにオープンセットデータを選択的に活用する汎用OSSLフレームワークである。
論文 参考訳(メタデータ) (2024-05-11T10:22:32Z) - LORD: Leveraging Open-Set Recognition with Unknown Data [10.200937444995944]
LORDは未知のデータを活用することでオープンセット認識を活用するためのフレームワークである。
我々は、背景データを利用した3つのモデルに依存しない訓練戦略を特定し、それらを確立された分類器に適用する。
論文 参考訳(メタデータ) (2023-08-24T06:12:41Z) - Trash to Treasure: Harvesting OOD Data with Cross-Modal Matching for
Open-Set Semi-Supervised Learning [101.28281124670647]
オープンセット半教師付き学習(Open-set SSL)では、ラベルなしデータにOOD(Out-of-distribution)サンプルを含む、難しいが実用的なシナリオを調査する。
我々は、OODデータの存在を効果的に活用し、特徴学習を増強する新しいトレーニングメカニズムを提案する。
我々のアプローチは、オープンセットSSLのパフォーマンスを大幅に向上させ、最先端技術よりも大きなマージンで性能を向上します。
論文 参考訳(メタデータ) (2021-08-12T09:14:44Z) - OpenCoS: Contrastive Semi-supervised Learning for Handling Open-set
Unlabeled Data [65.19205979542305]
ラベル付けされていないデータには、実際にはクラス外のサンプルが含まれる。
OpenCoSは、このリアルな半教師付き学習シナリオを扱う方法である。
論文 参考訳(メタデータ) (2021-06-29T06:10:05Z) - OpenMatch: Open-set Consistency Regularization for Semi-supervised
Learning with Outliers [71.08167292329028]
我々はOpenMatchと呼ばれる新しいオープンセットセミスーパーバイザードラーニング(OSSL)アプローチを提案する。
OpenMatchは、1-vs-all(OVA)分類器に基づいた新規検出とFixMatchを統合する。
3つのデータセットで最先端のパフォーマンスを実現し、CIFAR10の未ラベルデータで見えないアウトリーチを検出する上で、完全な教師付きモデルよりも優れています。
論文 参考訳(メタデータ) (2021-05-28T23:57:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。