論文の概要: Out-distribution aware Self-training in an Open World Setting
- arxiv url: http://arxiv.org/abs/2012.12372v1
- Date: Mon, 21 Dec 2020 12:25:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 06:42:34.708913
- Title: Out-distribution aware Self-training in an Open World Setting
- Title(参考訳): オープンワールドにおける自己学習のアウト・ディストリビューション
- Authors: Maximilian Augustin, Matthias Hein
- Abstract要約: オープンワールド環境ではラベルのないデータを活用して予測性能をさらに向上します。
注意深いサンプル選択戦略を含む,自己学習を意識したアウト・ディストリビューションを導入する。
当社の分類器は、設計外分布を意識しており、タスク関連の入力と無関係な入力を区別できます。
- 参考スコア(独自算出の注目度): 62.19882458285749
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Learning heavily depends on large labeled datasets which limits further
improvements. While unlabeled data is available in large amounts, in particular
in image recognition, it does not fulfill the closed world assumption of
semi-supervised learning that all unlabeled data are task-related. The goal of
this paper is to leverage unlabeled data in an open world setting to further
improve prediction performance. For this purpose, we introduce out-distribution
aware self-training, which includes a careful sample selection strategy based
on the confidence of the classifier. While normal self-training deteriorates
prediction performance, our iterative scheme improves using up to 15 times the
amount of originally labeled data. Moreover, our classifiers are by design
out-distribution aware and can thus distinguish task-related inputs from
unrelated ones.
- Abstract(参考訳): ディープラーニングは、さらなる改善を制限する大きなラベル付きデータセットに大きく依存する。
ラベルなしデータは、特に画像認識において大量に利用可能であるが、ラベルなしデータはタスク関連であるという半教師付き学習のクローズドワールド仮定を満たさない。
本研究の目的は,未ラベルデータを利用したオープンワールド環境での予測性能の向上である。
そこで本研究では,分類器の信頼度に基づく注意深いサンプル選択戦略を含む,分散型自己学習を提案する。
通常の自己学習は予測性能を低下させるが,本手法はラベル付きデータの最大15倍の精度で改善する。
さらに, 分類器は, アウト・ディストリビューション・アウェアメントを設計することで, タスク関連入力と非関連入力を区別することができる。
関連論文リスト
- Semi-Supervised Variational Adversarial Active Learning via Learning to Rank and Agreement-Based Pseudo Labeling [6.771578432805963]
アクティブラーニングは、ラベルなしサンプルの選択を自動化することで、データラベリングに関わる労力を軽減することを目的としている。
トレーニング中に大量のラベルのないデータの使用を大幅に改善する新しい手法を導入する。
様々な画像分類およびセグメンテーションベンチマークデータセットにおける技術状況に対するアプローチの優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-23T00:35:07Z) - XAL: EXplainable Active Learning Makes Classifiers Better Low-resource Learners [71.8257151788923]
低リソーステキスト分類のための新しい説明可能なアクティブラーニングフレームワーク(XAL)を提案する。
XALは分類器に対して、推論を正当化し、合理的な説明ができないラベルのないデータを掘り下げることを推奨している。
6つのデータセットの実験では、XALは9つの強いベースラインに対して一貫した改善を達成している。
論文 参考訳(メタデータ) (2023-10-09T08:07:04Z) - Enhancing Self-Training Methods [0.0]
半教師付き学習アプローチでは、ラベル付きデータの小さなセットとラベルなしデータの大きなセットをトレーニングする。
自己学習は「確認バイアス」の問題に悩まされる半教師型教師学生のアプローチである
論文 参考訳(メタデータ) (2023-01-18T03:56:17Z) - Self-Training: A Survey [5.772546394254112]
半教師付きアルゴリズムは、ラベル付き観測の小さなセットとラベルなし観測の大きなセットから予測関数を学習することを目的としている。
近年,自己学習手法が注目されていることは確かである。
本稿では,バイナリクラスとマルチクラス分類のための自己学習手法と,その変種と関連する2つのアプローチを提案する。
論文 参考訳(メタデータ) (2022-02-24T11:40:44Z) - Debiased Pseudo Labeling in Self-Training [77.83549261035277]
ディープニューラルネットワークは、大規模ラベル付きデータセットの助けを借りて、幅広いタスクで顕著なパフォーマンスを達成する。
ラベル付きデータの要求を軽減するため、ラベル付けされていないデータに擬似ラベルを付けることにより、学術と産業の両方で自己学習が広く使われている。
疑似ラベルの生成と利用を2つの独立した頭文字で分離するデバイアスドを提案する。
論文 参考訳(メタデータ) (2022-02-15T02:14:33Z) - Improving Contrastive Learning on Imbalanced Seed Data via Open-World
Sampling [96.8742582581744]
我々は、Model-Aware K-center (MAK)と呼ばれるオープンワールドなラベルなしデータサンプリングフレームワークを提案する。
MAKは、尾性、近接性、多様性の3つの単純な原則に従う。
我々はMAKが学習した機能の全体的な表現品質とクラスバランス性の両方を継続的に改善できることを実証した。
論文 参考訳(メタデータ) (2021-11-01T15:09:41Z) - ORDisCo: Effective and Efficient Usage of Incremental Unlabeled Data for
Semi-supervised Continual Learning [52.831894583501395]
連続学習は、入力されたデータが完全にラベル付けされていると仮定し、実際のアプリケーションでは適用できないかもしれない。
我々は、条件付き生成逆数ネットワーク(GAN)を用いた分類器を相互に学習するために、識別器整合(ORDisCo)を用いたディープオンライン再生を提案する。
ORDisCo が SSCL の様々な半教師付き学習ベンチマークデータセットで大幅なパフォーマンス向上を達成していることを示します。
論文 参考訳(メタデータ) (2021-01-02T09:04:14Z) - Self-training Improves Pre-training for Natural Language Understanding [63.78927366363178]
我々は、半教師付き学習を通じてラベルのないデータを活用する別の方法として、自己学習について研究する。
本稿では,ラベル付きデータからタスク固有のクエリの埋め込みを計算するデータ拡張手法であるSentAugmentを紹介する。
我々のアプローチは、標準的なテキスト分類ベンチマークで最大2.6%の改善を達成し、スケーラブルで効果的な自己学習に繋がる。
論文 参考訳(メタデータ) (2020-10-05T17:52:25Z) - Learning the Prediction Distribution for Semi-Supervised Learning with
Normalising Flows [6.789370732159177]
画像分類のための半教師付き学習(SSL)において、完全に教師付き性能に近い印象的な結果が得られた。
本稿では,ラベル予測上の分布を考慮したSSLの確率論的一般化手法を提案する。
出力複雑性の異なるコンピュータビジョンタスクに対して,このアプローチの汎用性を実証する。
論文 参考訳(メタデータ) (2020-07-06T13:36:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。