論文の概要: Re-Evaluating the Impact of Unseen-Class Unlabeled Data on Semi-Supervised Learning Model
- arxiv url: http://arxiv.org/abs/2503.00884v1
- Date: Sun, 02 Mar 2025 13:06:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:16:52.415382
- Title: Re-Evaluating the Impact of Unseen-Class Unlabeled Data on Semi-Supervised Learning Model
- Title(参考訳): 半教師付き学習モデルにおける未知の未ラベルデータの影響の再評価
- Authors: Rundong He, Yicong Dong, Lanzhe Guo, Yilong Yin, Tailin Wu,
- Abstract要約: 半教師付き学習は、ラベルのないデータを効果的に活用し、様々な分野で成功している。
現在の安全なSSLメソッドは、ラベルなしデータの見えないクラスがSSLモデルのパフォーマンスを損なうと信じている。
本稿では,変数の制御原理に厳密に固執し,未ラベルデータにおけるクラスの割合を維持する。
- 参考スコア(独自算出の注目度): 43.151771898902716
- License:
- Abstract: Semi-supervised learning (SSL) effectively leverages unlabeled data and has been proven successful across various fields. Current safe SSL methods believe that unseen classes in unlabeled data harm the performance of SSL models. However, previous methods for assessing the impact of unseen classes on SSL model performance are flawed. They fix the size of the unlabeled dataset and adjust the proportion of unseen classes within the unlabeled data to assess the impact. This process contravenes the principle of controlling variables. Adjusting the proportion of unseen classes in unlabeled data alters the proportion of seen classes, meaning the decreased classification performance of seen classes may not be due to an increase in unseen class samples in the unlabeled data, but rather a decrease in seen class samples. Thus, the prior flawed assessment standard that ``unseen classes in unlabeled data can damage SSL model performance" may not always hold true. This paper strictly adheres to the principle of controlling variables, maintaining the proportion of seen classes in unlabeled data while only changing the unseen classes across five critical dimensions, to investigate their impact on SSL models from global robustness and local robustness. Experiments demonstrate that unseen classes in unlabeled data do not necessarily impair the performance of SSL models; in fact, under certain conditions, unseen classes may even enhance them.
- Abstract(参考訳): 半教師付き学習(SSL)はラベルのないデータを効果的に活用し、様々な分野で成功している。
現在の安全なSSLメソッドは、ラベルなしデータの未確認クラスがSSLモデルのパフォーマンスを損なうと信じている。
しかし、SSLモデルのパフォーマンスに対する未確認クラスの影響を評価する以前の方法には欠陥がある。
ラベルなしデータセットのサイズを修正し、ラベルなしデータ内の見えないクラスの比率を調整し、影響を評価する。
このプロセスは変数の制御の原則に反している。
未ラベルデータにおける未表示クラスの比率を調整することは、未ラベルデータにおける未表示クラスサンプルの増加によるものではなく、むしろ未ラベルデータにおける未表示クラスサンプルの減少によるものである可能性がある。
したがって、'`ラベルなしデータの未知のクラスがSSLモデルのパフォーマンスを損なう"という事前の欠陥評価基準は、必ずしも真実であるとは限らない。
本稿では,変数の制御の原則に厳格に固執し,ラベル付きデータにおけるクラスの割合を維持しつつ,5つの重要な次元で未確認クラスを変更することで,SSLモデルへの影響をグローバルな堅牢性と局所ロバスト性から検討する。
実験では、ラベルなしデータの未確認クラスがSSLモデルのパフォーマンスを損なうとは限らないことが示されている。
関連論文リスト
- Robust Semi-Supervised Learning in Open Environments [51.741549825533816]
半教師付き学習(SSL)は、ラベルが不足しているときにラベルのないデータを活用することで、パフォーマンスを向上させることを目的としている。
不整合なラベル付きデータを利用すると、大幅な性能劣化が発生することが報告されている。
本稿では,SSLにおけるラベル,特徴,データ分散の不整合に関する技術に焦点をあて,この研究の展開を簡潔に紹介する。
論文 参考訳(メタデータ) (2024-12-24T08:13:01Z) - OwMatch: Conditional Self-Labeling with Consistency for Open-World Semi-Supervised Learning [4.462726364160216]
半教師付き学習(SSL)は、注釈のないデータの可能性を活用するための堅牢なフレームワークを提供する。
オープンワールドSSL(OwSSL)の出現は、ラベルのないデータが目に見えないクラスのサンプルを包含する、より実践的な課題をもたらす。
我々は,条件付き自己ラベルとオープンワールド階層しきい値を組み合わせたOwMatchという効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-04T06:07:43Z) - A Closer Look at Benchmarking Self-Supervised Pre-training with Image Classification [51.35500308126506]
自己教師付き学習(SSL)は、データ自体が監視を提供する機械学習アプローチであり、外部ラベルの必要性を排除している。
SSLの分類に基づく評価プロトコルがどのように相関し、異なるデータセットのダウンストリーム性能を予測するかを検討する。
論文 参考訳(メタデータ) (2024-07-16T23:17:36Z) - A Self-Supervised Learning Pipeline for Demographically Fair Facial Attribute Classification [3.5092955099876266]
本稿では,人口統計学的に公平な顔属性分類のための完全自己教師付きパイプラインを提案する。
我々は、事前訓練されたエンコーダ、多様なデータキュレーション技術、メタラーニングに基づく重み付きコントラスト学習を通じて、完全にラベル付けされていないデータを活用する。
論文 参考訳(メタデータ) (2024-07-14T07:11:57Z) - FlatMatch: Bridging Labeled Data and Unlabeled Data with Cross-Sharpness
for Semi-Supervised Learning [73.13448439554497]
Semi-Supervised Learning (SSL) は、ラベル付きデータが極めて少ない豊富なラベル付きデータを活用する効果的な方法である。
ほとんどのSSLメソッドは、通常、異なるデータ変換間のインスタンス単位の一貫性に基づいている。
本研究では,2つのデータセット間の一貫した学習性能を確保するために,クロスシャープネス尺度を最小化するFlatMatchを提案する。
論文 参考訳(メタデータ) (2023-10-25T06:57:59Z) - Semi-Supervised Learning in the Few-Shot Zero-Shot Scenario [14.916971861796384]
Semi-Supervised Learning (SSL)は、ラベル付きデータとラベルなしデータの両方を利用して、モデルのパフォーマンスを向上させるフレームワークである。
既存のSSLメソッドを拡張し、特定のクラスが欠落している状況に対処するための一般的なアプローチを提案する。
実験の結果,最先端のSSL,オープンセットのSSL,オープンワールドのSSLメソッドと比較して,精度が大幅に向上した。
論文 参考訳(メタデータ) (2023-08-27T14:25:07Z) - Radio Galaxy Zoo: Using semi-supervised learning to leverage large
unlabelled data-sets for radio galaxy classification under data-set shift [0.0]
電波銀河の形態分類に応用した最先端半教師付き学習アルゴリズム
より少ないラベルを持つSSLが、監督された最先端に匹敵するテスト精度を達成できるかどうかをテストする。
改善は限られたラベルボリュームに限定され、低ラベルボリュームでは性能が急速に低下する。
論文 参考訳(メタデータ) (2022-04-19T11:38:22Z) - Robust Deep Semi-Supervised Learning: A Brief Introduction [63.09703308309176]
半教師付き学習(SSL)は、ラベルが不十分なときにラベル付きデータを活用することにより、学習性能を向上させることを目的としている。
ディープモデルによるSSLは、標準ベンチマークタスクで成功したことが証明されている。
しかし、それらは現実世界のアプリケーションにおける様々な堅牢性に対する脅威に対して依然として脆弱である。
論文 参考訳(メタデータ) (2022-02-12T04:16:41Z) - Self-supervised Learning is More Robust to Dataset Imbalance [65.84339596595383]
データセット不均衡下での自己教師型学習について検討する。
既製の自己教師型表現は、教師型表現よりもクラス不均衡に対してすでに堅牢である。
我々は、不均衡なデータセット上でSSL表現品質を一貫して改善する、再重み付け正規化手法を考案した。
論文 参考訳(メタデータ) (2021-10-11T06:29:56Z) - Class-Imbalanced Semi-Supervised Learning [33.94685366079589]
Semi-Supervised Learning (SSL)はラベル付けの難しさを克服し、ラベルなしデータを完全に活用することで大きな成功を収めている。
本稿では,クラス不均衡データを用いた半教師あり学習(CISSL)の課題を紹介する。
本手法はCISSL環境における従来の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-02-17T07:48:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。