論文の概要: ADT-SSL: Adaptive Dual-Threshold for Semi-Supervised Learning
- arxiv url: http://arxiv.org/abs/2205.10571v1
- Date: Sat, 21 May 2022 11:52:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 18:19:38.905338
- Title: ADT-SSL: Adaptive Dual-Threshold for Semi-Supervised Learning
- Title(参考訳): ADT-SSL: 半教師付き学習のための適応型デュアルスレッド
- Authors: Zechen Liang, Yuan-Gen Wang, Wei Lu, Xiaochun Cao
- Abstract要約: Semi-Supervised Learning (SSL)は、ラベル付きデータとラベルなしデータを併用してモデルをトレーニングすることで、高度な分類タスクを実現している。
本稿では,半教師付き学習(ADT-SSL)のための適応的デュアル閾値法を提案する。
実験の結果,提案したADT-SSLは最先端の分類精度を実現することがわかった。
- 参考スコア(独自算出の注目度): 68.53717108812297
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semi-Supervised Learning (SSL) has advanced classification tasks by inputting
both labeled and unlabeled data to train a model jointly. However, existing SSL
methods only consider the unlabeled data whose predictions are beyond a fixed
threshold (e.g., 0.95), ignoring the valuable information from those less than
0.95. We argue that these discarded data have a large proportion and are
usually of hard samples, thereby benefiting the model training. This paper
proposes an Adaptive Dual-Threshold method for Semi-Supervised Learning
(ADT-SSL). Except for the fixed threshold, ADT extracts another class-adaptive
threshold from the labeled data to take full advantage of the unlabeled data
whose predictions are less than 0.95 but more than the extracted one.
Accordingly, we engage CE and $L_2$ loss functions to learn from these two
types of unlabeled data, respectively. For highly similar unlabeled data, we
further design a novel similar loss to make the prediction of the model
consistency. Extensive experiments are conducted on benchmark datasets,
including CIFAR-10, CIFAR-100, and SVHN. Experimental results show that the
proposed ADT-SSL achieves state-of-the-art classification accuracy.
- Abstract(参考訳): Semi-Supervised Learning (SSL)は、ラベル付きデータとラベルなしデータの両方を併用してモデルをトレーニングすることで、高度な分類タスクを実現している。
しかし、既存のSSLメソッドは、予測が一定の閾値(例えば0.95)を超えたラベル付きデータのみを考慮し、0.95未満のデータから貴重な情報を無視する。
これらの廃棄されたデータは大きな割合を持ち、通常ハードサンプルであり、モデルトレーニングの恩恵を受ける。
本稿では,セミスーパーバイズドラーニング(ADT-SSL)のための適応的デュアル閾値法を提案する。
固定しきい値を除くと、adtはラベル付きデータから別のクラス適応しきい値を取り出し、0.95未満で抽出されたデータよりも大きいラベル付きデータを利用する。
従って、ce と $l_2$ の損失関数は、これら2つのラベルなしデータから学ぶことができる。
高度に類似したラベルのないデータに対しては、モデルの一貫性を予測するために、新しい類似の損失を更に設計する。
CIFAR-10、CIFAR-100、SVHNなどのベンチマークデータセットで大規模な実験が行われた。
実験の結果,提案したADT-SSLは最先端の分類精度を実現することがわかった。
関連論文リスト
- FlatMatch: Bridging Labeled Data and Unlabeled Data with Cross-Sharpness
for Semi-Supervised Learning [73.13448439554497]
Semi-Supervised Learning (SSL) は、ラベル付きデータが極めて少ない豊富なラベル付きデータを活用する効果的な方法である。
ほとんどのSSLメソッドは、通常、異なるデータ変換間のインスタンス単位の一貫性に基づいている。
本研究では,2つのデータセット間の一貫した学習性能を確保するために,クロスシャープネス尺度を最小化するFlatMatchを提案する。
論文 参考訳(メタデータ) (2023-10-25T06:57:59Z) - Adaptive Negative Evidential Deep Learning for Open-set Semi-supervised Learning [69.81438976273866]
オープンセット半教師付き学習(Open-set SSL)は、ラベル付きデータ(inliers)で観測されない新しいカテゴリ(outliers)を含むラベル付きデータとテストデータを含む、より実践的なシナリオである。
本研究では,様々な不確かさを定量化するための外乱検出器として顕在的深層学習(EDL)を導入し,自己学習と推論のための異なる不確実性指標を設計する。
Inlierとoutlierの両方を含むラベルなしデータセットに適合するように、新しい適応的負の最適化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-21T09:07:15Z) - Are labels informative in semi-supervised learning? -- Estimating and
leveraging the missing-data mechanism [4.675583319625962]
半教師付き学習は、ラベルのないデータを利用して機械学習モデルを改善するための強力な技術である。
これは、あるクラスが他のクラスよりもラベル付けされる可能性が高い場合に発生する、情報的ラベルの存在に影響される可能性がある。
本稿では,データ不足のメカニズムを推定し,逆確率重み付けを用いてSSLアルゴリズムを劣化させることにより,この問題に対処する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-02-15T09:18:46Z) - FreeMatch: Self-adaptive Thresholding for Semi-supervised Learning [46.95063831057502]
本稿では,モデルの学習状況に応じて,信頼度閾値を自己適応的に定義・調整するためのemphFreeMatchを提案する。
FreeMatchは、最新の最先端メソッドであるFlexMatchよりもtextbf5.78%、textbf13.59%、textbf1.28%のエラー率削減を実現している。
論文 参考訳(メタデータ) (2022-05-15T10:07:52Z) - Taming Overconfident Prediction on Unlabeled Data from Hindsight [50.9088560433925]
ラベルのないデータに対する予測の不確実性を最小化することは、半教師付き学習において優れた性能を達成するための鍵となる要素である。
本稿では,アダプティブシャーニング(Adaptive Sharpening, ADS)と呼ばれる2つのメカニズムを提案する。
ADSは、プラグインにすることで最先端のSSLメソッドを大幅に改善する。
論文 参考訳(メタデータ) (2021-12-15T15:17:02Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - Self-Tuning for Data-Efficient Deep Learning [75.34320911480008]
セルフチューニングは、データ効率のよいディープラーニングを可能にする新しいアプローチである。
ラベル付きおよびラベルなしデータの探索と事前訓練されたモデルの転送を統一する。
SSLとTLの5つのタスクをシャープなマージンで上回ります。
論文 参考訳(メタデータ) (2021-02-25T14:56:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。