論文の概要: Co-Training with Active Contrastive Learning and Meta-Pseudo-Labeling on 2D Projections for Deep Semi-Supervised Learning
- arxiv url: http://arxiv.org/abs/2504.18666v1
- Date: Fri, 25 Apr 2025 19:41:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.936747
- Title: Co-Training with Active Contrastive Learning and Meta-Pseudo-Labeling on 2D Projections for Deep Semi-Supervised Learning
- Title(参考訳): 深層半監督学習のための2次元投影に基づくアクティブコントラスト学習とメタ擬似ラベルによる共同学習
- Authors: David Aparco-Cardenas, Jancarlo F. Gomes, Alexandre X. Falcão, Pedro J. de Rezende,
- Abstract要約: SSLはこの課題に対処し、ラベル付きで豊富なラベル付けされていないデータを活用する。
教師によるメタ擬似ラベリングとALを効果的に組み合わせた能動型DeepFAを提案する。
- 参考スコア(独自算出の注目度): 42.56511266791916
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A major challenge that prevents the training of DL models is the limited availability of accurately labeled data. This shortcoming is highlighted in areas where data annotation becomes a time-consuming and error-prone task. In this regard, SSL tackles this challenge by capitalizing on scarce labeled and abundant unlabeled data; however, SoTA methods typically depend on pre-trained features and large validation sets to learn effective representations for classification tasks. In addition, the reduced set of labeled data is often randomly sampled, neglecting the selection of more informative samples. Here, we present active-DeepFA, a method that effectively combines CL, teacher-student-based meta-pseudo-labeling and AL to train non-pretrained CNN architectures for image classification in scenarios of scarcity of labeled and abundance of unlabeled data. It integrates DeepFA into a co-training setup that implements two cooperative networks to mitigate confirmation bias from pseudo-labels. The method starts with a reduced set of labeled samples by warming up the networks with supervised CL. Afterward and at regular epoch intervals, label propagation is performed on the 2D projections of the networks' deep features. Next, the most reliable pseudo-labels are exchanged between networks in a cross-training fashion, while the most meaningful samples are annotated and added into the labeled set. The networks independently minimize an objective loss function comprising supervised contrastive, supervised and semi-supervised loss components, enhancing the representations towards image classification. Our approach is evaluated on three challenging biological image datasets using only 5% of labeled samples, improving baselines and outperforming six other SoTA methods. In addition, it reduces annotation effort by achieving comparable results to those of its counterparts with only 3% of labeled data.
- Abstract(参考訳): DLモデルのトレーニングを妨げる大きな課題は、正確にラベル付けされたデータの限られた可用性である。
この欠点は、データアノテーションが時間がかかり、エラーが発生しやすいような領域で強調される。
この点において、SSLはラベル付きで豊富なラベル付けされていないデータを活用することでこの問題に対処するが、SoTAメソッドは通常、事前訓練された機能と大きな検証セットに依存して、分類タスクの効果的な表現を学ぶ。
さらに、ラベル付きデータの少ないセットは、しばしばランダムにサンプリングされ、より情報的なサンプルの選択を無視する。
本稿では,教師によるメタ擬似ラベルのCLとALを効果的に組み合わせて,ラベル付きデータの不足やラベルなしデータの豊富さのシナリオにおける画像分類のための非事前学習CNNアーキテクチャを訓練する手法であるActive-DeepFAを提案する。
DeepFAは、疑似ラベルからの確認バイアスを軽減するために、2つの協調ネットワークを実装する共同トレーニング環境に統合される。
この方法は、CLでネットワークを温めることでラベル付きサンプルを減らすことから始まる。
その後および定期的に、ネットワークの深い特徴の2次元投影に対してラベル伝搬を行う。
次に、最も信頼性の高い擬似ラベルをクロストレーニング方式でネットワーク間で交換し、最も有意義なサンプルをアノテートしてラベルセットに追加する。
ネットワークは、教師付きコントラスト、教師付きおよび半教師付きロスコンポーネントからなる目的損失関数を独立に最小化し、画像分類への表現を強化する。
提案手法は, 5%のラベル付きサンプルを用いて3つの生物画像データセットを用いて評価し, ベースラインを改善し, その他の6種類のSOTA法より優れていた。
さらに、ラベル付きデータのわずか3%で、アノテーションに匹敵する結果を達成することで、アノテーションの労力を減らすことができる。
関連論文リスト
- Semi-Supervised End-To-End Contrastive Learning For Time Series Classification [9.46287383389573]
時系列分類は、金融、医療、センサーデータ分析など、さまざまな分野において重要な課題である。
SLOTS(Semi-supervised Learning fOr Time clasSification)と呼ばれるエンドツーエンドモデルを提案する。
論文 参考訳(メタデータ) (2023-10-13T04:22:21Z) - All Points Matter: Entropy-Regularized Distribution Alignment for
Weakly-supervised 3D Segmentation [67.30502812804271]
擬似ラベルは、弱い教師付き3Dセグメンテーションタスクに広く使われており、学習に使えるのはスパース・グラウンド・トラス・ラベルのみである。
本稿では,生成した擬似ラベルを正規化し,擬似ラベルとモデル予測とのギャップを効果的に狭めるための新しい学習戦略を提案する。
論文 参考訳(メタデータ) (2023-05-25T08:19:31Z) - Learning from Data with Noisy Labels Using Temporal Self-Ensemble [11.245833546360386]
ディープニューラルネットワーク(DNN)はノイズラベルを記憶する膨大な能力を持つ。
現在最先端の手法では、損失の少ないサンプルを用いて二重ネットワークを訓練するコトレーニング方式が提案されている。
本稿では,単一のネットワークのみをトレーニングすることで,シンプルで効果的なロバストトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T08:16:31Z) - CLS: Cross Labeling Supervision for Semi-Supervised Learning [9.929229055862491]
Cross Labeling Supervision (CLS) は、典型的な擬似ラベル処理を一般化するフレームワークである。
CLSは擬似ラベルと相補ラベルの両方を作成でき、正と負の両方の学習をサポートする。
論文 参考訳(メタデータ) (2022-02-17T08:09:40Z) - GuidedMix-Net: Semi-supervised Semantic Segmentation by Using Labeled
Images as Reference [90.5402652758316]
半教師付きセマンティックセマンティックセグメンテーションのための新しい手法である GuidedMix-Net を提案する。
ラベル付き情報を使用して、ラベルなしのインスタンスの学習をガイドする。
競合セグメンテーションの精度を達成し、mIoUを以前のアプローチに比べて+7$%大きく改善する。
論文 参考訳(メタデータ) (2021-12-28T06:48:03Z) - S3: Supervised Self-supervised Learning under Label Noise [53.02249460567745]
本稿では,ラベルノイズの存在下での分類の問題に対処する。
提案手法の核心は,サンプルのアノテートラベルと特徴空間内のその近傍のラベルの分布との整合性に依存するサンプル選択機構である。
提案手法は,CIFARCIFAR100とWebVisionやANIMAL-10Nなどの実環境ノイズデータセットの両方で,従来の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2021-11-22T15:49:20Z) - Semi-weakly Supervised Contrastive Representation Learning for Retinal
Fundus Images [0.2538209532048867]
本稿では,半弱化アノテーションを用いた表現学習のための,半弱化教師付きコントラスト学習フレームワークを提案する。
SWCLの移動学習性能を7つの公立網膜眼底データセットで実証的に検証した。
論文 参考訳(メタデータ) (2021-08-04T15:50:09Z) - Boosting the Performance of Semi-Supervised Learning with Unsupervised
Clustering [10.033658645311188]
学習中の間欠的にラベルを完全に無視することは,小サンプル体制における性能を著しく向上させることを示す。
本手法は,最先端のSSLアルゴリズムの高速化に有効であることを示す。
論文 参考訳(メタデータ) (2020-12-01T14:19:14Z) - PseudoSeg: Designing Pseudo Labels for Semantic Segmentation [78.35515004654553]
ラベルなしまたは弱いラベル付きデータを用いたトレーニングのための構造化された擬似ラベルを生成するための擬似ラベルの再設計を提案する。
提案手法の有効性を,低データと高データの両方において示す。
論文 参考訳(メタデータ) (2020-10-19T17:59:30Z) - DivideMix: Learning with Noisy Labels as Semi-supervised Learning [111.03364864022261]
ノイズラベルを学習するためのフレームワークであるDivideMixを提案する。
複数のベンチマークデータセットの実験は、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2020-02-18T06:20:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。