論文の概要: Robust Deep Semi-Supervised Learning: A Brief Introduction
- arxiv url: http://arxiv.org/abs/2202.05975v1
- Date: Sat, 12 Feb 2022 04:16:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-15 17:15:10.703175
- Title: Robust Deep Semi-Supervised Learning: A Brief Introduction
- Title(参考訳): ロバストな半教師付き学習 - 簡単な紹介
- Authors: Lan-Zhe Guo and Zhi Zhou and Yu-Feng Li
- Abstract要約: 半教師付き学習(SSL)は、ラベルが不十分なときにラベル付きデータを活用することにより、学習性能を向上させることを目的としている。
ディープモデルによるSSLは、標準ベンチマークタスクで成功したことが証明されている。
しかし、それらは現実世界のアプリケーションにおける様々な堅牢性に対する脅威に対して依然として脆弱である。
- 参考スコア(独自算出の注目度): 63.09703308309176
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semi-supervised learning (SSL) is the branch of machine learning that aims to
improve learning performance by leveraging unlabeled data when labels are
insufficient. Recently, SSL with deep models has proven to be successful on
standard benchmark tasks. However, they are still vulnerable to various
robustness threats in real-world applications as these benchmarks provide
perfect unlabeled data, while in realistic scenarios, unlabeled data could be
corrupted. Many researchers have pointed out that after exploiting corrupted
unlabeled data, SSL suffers severe performance degradation problems. Thus,
there is an urgent need to develop SSL algorithms that could work robustly with
corrupted unlabeled data. To fully understand robust SSL, we conduct a survey
study. We first clarify a formal definition of robust SSL from the perspective
of machine learning. Then, we classify the robustness threats into three
categories: i) distribution corruption, i.e., unlabeled data distribution is
mismatched with labeled data; ii) feature corruption, i.e., the features of
unlabeled examples are adversarially attacked; and iii) label corruption, i.e.,
the label distribution of unlabeled data is imbalanced. Under this unified
taxonomy, we provide a thorough review and discussion of recent works that
focus on these issues. Finally, we propose possible promising directions within
robust SSL to provide insights for future research.
- Abstract(参考訳): 半教師付き学習(SSL)は、ラベルが不十分なときにラベル付きデータを活用することによって学習性能を向上させることを目的とした機械学習の分野である。
最近、ディープモデルによるSSLは標準ベンチマークタスクで成功したことが証明されている。
しかし、これらのベンチマークは完全なラベルのないデータを提供するが、現実的なシナリオではラベルのないデータは破損する可能性がある。
多くの研究者が、不正なラベル付きデータを悪用した後、SSLは深刻なパフォーマンス劣化の問題を抱えていると指摘している。
したがって、破損した未ラベルのデータで堅牢に動作するSSLアルゴリズムを開発する必要がある。
堅牢なSSLを十分に理解するために、調査研究を行う。
まず、マシンラーニングの観点から、ロバストSSLの正式な定義を明確にする。
次に、ロバストネスの脅威を3つのカテゴリに分類する。
一 分配腐敗、すなわち、ラベルのないデータ分布がラベル付きデータと不一致であること。
二 特徴腐敗、即ち、ラベルなし例の特徴が反対に攻撃されていること。
三 ラベルの腐敗、すなわちラベルのないデータのラベルの分布が不均衡であること。
この統合された分類学の下で、これらの問題に焦点を当てた最近の研究の徹底的なレビューと議論を行う。
最後に,将来研究への洞察を提供するため,堅牢なsslにおける有望な方向性を提案する。
関連論文リスト
- OwMatch: Conditional Self-Labeling with Consistency for Open-World Semi-Supervised Learning [4.462726364160216]
半教師付き学習(SSL)は、注釈のないデータの可能性を活用するための堅牢なフレームワークを提供する。
オープンワールドSSL(OwSSL)の出現は、ラベルのないデータが目に見えないクラスのサンプルを包含する、より実践的な課題をもたらす。
我々は,条件付き自己ラベルとオープンワールド階層しきい値を組み合わせたOwMatchという効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-04T06:07:43Z) - FlatMatch: Bridging Labeled Data and Unlabeled Data with Cross-Sharpness
for Semi-Supervised Learning [73.13448439554497]
Semi-Supervised Learning (SSL) は、ラベル付きデータが極めて少ない豊富なラベル付きデータを活用する効果的な方法である。
ほとんどのSSLメソッドは、通常、異なるデータ変換間のインスタンス単位の一貫性に基づいている。
本研究では,2つのデータセット間の一貫した学習性能を確保するために,クロスシャープネス尺度を最小化するFlatMatchを提案する。
論文 参考訳(メタデータ) (2023-10-25T06:57:59Z) - Contrastive Credibility Propagation for Reliable Semi-Supervised Learning [6.014538614447467]
逐次的擬似ラベルリファインメントによる深部SSLのためのコントラストCCP(Contrastive Credibility Propagation)を提案する。
CCPは、教師付きベースラインをデータシナリオで確実に上回るために、半教師付き学習とノイズの多いラベル学習を統一する。
論文 参考訳(メタデータ) (2022-11-17T23:01:47Z) - Learning to Infer from Unlabeled Data: A Semi-supervised Learning
Approach for Robust Natural Language Inference [47.293189105900524]
自然言語推論(英: Natural Language Inference、NLI)は、一対の文(前提と仮説)の関係を、関係性、矛盾、意味的な独立性として予測することを目的としている。
近年、ディープラーニングモデルはNLIに有望なパフォーマンスを示しており、大規模で高価な人型アノテートデータセットに依存している。
半教師付き学習(SSL)は、トレーニングにラベルのないデータを活用することで、人間のアノテーションへの依存を減らすための一般的な手法である。
論文 参考訳(メタデータ) (2022-11-05T20:34:08Z) - Complementing Semi-Supervised Learning with Uncertainty Quantification [6.612035830987296]
そこで本研究では,アレータ性およびてんかん性不確実性定量化に依存する,教師なし不確実性認識の新たな目的を提案する。
CIFAR-100やMini-ImageNetのような複雑なデータセットでは,結果が最先端の成果よりも優れています。
論文 参考訳(メタデータ) (2022-07-22T00:15:02Z) - Towards Realistic Semi-Supervised Learning [73.59557447798134]
オープンワールド環境でSSLに取り組み、未知のクラスと未知のクラスを同時に分類する新しい手法を提案する。
我々のアプローチは、既存の最先端の7つのデータセットよりも大幅に優れています。
論文 参考訳(メタデータ) (2022-07-05T19:04:43Z) - OpenLDN: Learning to Discover Novel Classes for Open-World
Semi-Supervised Learning [110.40285771431687]
半教師付き学習(SSL)は、教師付き学習のアノテーションボトルネックに対処する主要なアプローチの1つである。
最近のSSLメソッドは、ラベルなしデータの大規模なリポジトリを有効活用して、ラベル付きデータの小さなセットに依存しながら、パフォーマンスを向上させることができる。
この研究は、ペアワイズ類似度損失を利用して新しいクラスを発見するOpenLDNを導入している。
論文 参考訳(メタデータ) (2022-07-05T18:51:05Z) - On Non-Random Missing Labels in Semi-Supervised Learning [114.62655062520425]
Semi-Supervised Learning (SSL)は基本的にラベルの問題である。
SSL に "class" を明示的に組み込んでいます。
提案手法は,既存のベースラインを著しく上回るだけでなく,他のラベルバイアス除去SSL法を上回ります。
論文 参考訳(メタデータ) (2022-06-29T22:01:29Z) - Self-supervised Learning is More Robust to Dataset Imbalance [65.84339596595383]
データセット不均衡下での自己教師型学習について検討する。
既製の自己教師型表現は、教師型表現よりもクラス不均衡に対してすでに堅牢である。
我々は、不均衡なデータセット上でSSL表現品質を一貫して改善する、再重み付け正規化手法を考案した。
論文 参考訳(メタデータ) (2021-10-11T06:29:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。