論文の概要: Robust Semi-Supervised Learning in Open Environments
- arxiv url: http://arxiv.org/abs/2412.18256v1
- Date: Tue, 24 Dec 2024 08:13:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-25 15:56:15.738652
- Title: Robust Semi-Supervised Learning in Open Environments
- Title(参考訳): オープン環境におけるロバストな半教師付き学習
- Authors: Lan-Zhe Guo, Lin-Han Jia, Jie-Jing Shao, Yu-Feng Li,
- Abstract要約: 半教師付き学習(SSL)は、ラベルが不足しているときにラベルのないデータを活用することで、パフォーマンスを向上させることを目的としている。
不整合なラベル付きデータを利用すると、大幅な性能劣化が発生することが報告されている。
本稿では,SSLにおけるラベル,特徴,データ分散の不整合に関する技術に焦点をあて,この研究の展開を簡潔に紹介する。
- 参考スコア(独自算出の注目度): 51.741549825533816
- License:
- Abstract: Semi-supervised learning (SSL) aims to improve performance by exploiting unlabeled data when labels are scarce. Conventional SSL studies typically assume close environments where important factors (e.g., label, feature, distribution) between labeled and unlabeled data are consistent. However, more practical tasks involve open environments where important factors between labeled and unlabeled data are inconsistent. It has been reported that exploiting inconsistent unlabeled data causes severe performance degradation, even worse than the simple supervised learning baseline. Manually verifying the quality of unlabeled data is not desirable, therefore, it is important to study robust SSL with inconsistent unlabeled data in open environments. This paper briefly introduces some advances in this line of research, focusing on techniques concerning label, feature, and data distribution inconsistency in SSL, and presents the evaluation benchmarks. Open research problems are also discussed for reference purposes.
- Abstract(参考訳): 半教師付き学習(SSL)は、ラベルが不足しているときにラベルのないデータを活用することで、パフォーマンスを向上させることを目的としている。
従来のSSL研究は、ラベル付きデータとラベルなしデータの間に重要な要素(ラベル、特徴、分布など)が一貫した環境を前提としている。
しかし、より実践的なタスクは、ラベル付きデータとラベルなしデータの間に重要な要素が矛盾するオープン環境を含む。
不整合なラベル付きデータを利用すると、単純な教師付き学習ベースラインよりもひどい性能低下が起こることが報告されている。
非ラベルデータの品質を手作業で検証することは望ましくないため、オープン環境では不整合な未ラベルデータを用いてロバストSSLを研究することが重要である。
本稿では,SSLにおけるラベル,特徴,データ分散の不整合に関する技術に注目し,評価ベンチマークを提案する。
オープンリサーチの問題も参照のために議論されている。
関連論文リスト
- Generalized Semi-Supervised Learning via Self-Supervised Feature Adaptation [87.17768598044427]
従来の半教師付き学習は、ラベル付きデータとラベルなしデータの特徴分布が一貫したものであると仮定する。
本稿では,ラベル付きおよびラベルなしデータの分散によるSSL性能向上のための汎用フレームワークであるセルフ・スーパービジョン・フィーチャー・アダプテーション(SSFA)を提案する。
提案するSSFAは擬似ラベルベースのSSL学習者に適用可能であり,ラベル付き,ラベルなし,さらには目に見えない分布における性能を著しく向上させる。
論文 参考訳(メタデータ) (2024-05-31T03:13:45Z) - FlatMatch: Bridging Labeled Data and Unlabeled Data with Cross-Sharpness
for Semi-Supervised Learning [73.13448439554497]
Semi-Supervised Learning (SSL) は、ラベル付きデータが極めて少ない豊富なラベル付きデータを活用する効果的な方法である。
ほとんどのSSLメソッドは、通常、異なるデータ変換間のインスタンス単位の一貫性に基づいている。
本研究では,2つのデータセット間の一貫した学習性能を確保するために,クロスシャープネス尺度を最小化するFlatMatchを提案する。
論文 参考訳(メタデータ) (2023-10-25T06:57:59Z) - Soft Curriculum for Learning Conditional GANs with Noisy-Labeled and
Uncurated Unlabeled Data [70.25049762295193]
本稿では,トレーニング中にノイズラベル付きおよび未処理データを受け入れる条件付き画像生成フレームワークを提案する。
本稿では,ラベルのないデータに新たなラベルを割り当てながら,逆行訓練にインスタンスワイドを割り当てるソフトカリキュラム学習を提案する。
実験により,本手法は,定量および定性性能の両面において,既存の半教師付き・ラベル付きロバストな手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-17T08:31:59Z) - Contrastive Credibility Propagation for Reliable Semi-Supervised Learning [6.014538614447467]
逐次的擬似ラベルリファインメントによる深部SSLのためのコントラストCCP(Contrastive Credibility Propagation)を提案する。
CCPは、教師付きベースラインをデータシナリオで確実に上回るために、半教師付き学習とノイズの多いラベル学習を統一する。
論文 参考訳(メタデータ) (2022-11-17T23:01:47Z) - Complementing Semi-Supervised Learning with Uncertainty Quantification [6.612035830987296]
そこで本研究では,アレータ性およびてんかん性不確実性定量化に依存する,教師なし不確実性認識の新たな目的を提案する。
CIFAR-100やMini-ImageNetのような複雑なデータセットでは,結果が最先端の成果よりも優れています。
論文 参考訳(メタデータ) (2022-07-22T00:15:02Z) - Robust Deep Semi-Supervised Learning: A Brief Introduction [63.09703308309176]
半教師付き学習(SSL)は、ラベルが不十分なときにラベル付きデータを活用することにより、学習性能を向上させることを目的としている。
ディープモデルによるSSLは、標準ベンチマークタスクで成功したことが証明されている。
しかし、それらは現実世界のアプリケーションにおける様々な堅牢性に対する脅威に対して依然として脆弱である。
論文 参考訳(メタデータ) (2022-02-12T04:16:41Z) - A Survey on Semi-Supervised Learning for Delayed Partially Labelled Data
Streams [10.370629574634092]
本調査は, 半教師付き環境で, 不正なデータを利用する手法に特に注意を払っている。
完全教師付き手法と半教師付き手法の両方に影響を及ぼす遅延ラベル問題について議論する。
論文 参考訳(メタデータ) (2021-06-16T23:14:20Z) - Self-Tuning for Data-Efficient Deep Learning [75.34320911480008]
セルフチューニングは、データ効率のよいディープラーニングを可能にする新しいアプローチである。
ラベル付きおよびラベルなしデータの探索と事前訓練されたモデルの転送を統一する。
SSLとTLの5つのタスクをシャープなマージンで上回ります。
論文 参考訳(メタデータ) (2021-02-25T14:56:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。