論文の概要: Divide-and-Conquer for Enhancing Unlabeled Learning, Stability, and Plasticity in Semi-supervised Continual Learning
- arxiv url: http://arxiv.org/abs/2508.05316v1
- Date: Thu, 07 Aug 2025 12:19:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-08 18:59:39.849396
- Title: Divide-and-Conquer for Enhancing Unlabeled Learning, Stability, and Plasticity in Semi-supervised Continual Learning
- Title(参考訳): 半教師付き連続学習におけるラベルなし学習, 安定性, 可塑性の促進のための分級演算器
- Authors: Yue Duan, Taicai Chen, Lei Qi, Yinghuan Shi,
- Abstract要約: 半教師付き連続学習(SSCL)は、ラベル付きデータとラベルなしデータの両方を逐次学習設定で活用しようとする。
この研究は、SSCLの3つの側面を相乗的に強化するように設計された分割・分散フレームワークであるUSPを提示する。
USPは以前のSSCL法よりも優れており、最終精度は5.94%まで向上し、その有効性を検証している。
- 参考スコア(独自算出の注目度): 24.429184628642012
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Semi-supervised continual learning (SSCL) seeks to leverage both labeled and unlabeled data in a sequential learning setup, aiming to reduce annotation costs while managing continual data arrival. SSCL introduces complex challenges, including ensuring effective unlabeled learning (UL), while balancing memory stability (MS) and learning plasticity (LP). Previous SSCL efforts have typically focused on isolated aspects of the three, while this work presents USP, a divide-and-conquer framework designed to synergistically enhance these three aspects: (1) Feature Space Reservation (FSR) strategy for LP, which constructs reserved feature locations for future classes by shaping old classes into an equiangular tight frame; (2) Divide-and-Conquer Pseudo-labeling (DCP) approach for UL, which assigns reliable pseudo-labels across both high- and low-confidence unlabeled data; and (3) Class-mean-anchored Unlabeled Distillation (CUD) for MS, which reuses DCP's outputs to anchor unlabeled data to stable class means for distillation to prevent forgetting. Comprehensive evaluations show USP outperforms prior SSCL methods, with gains up to 5.94% in the last accuracy, validating its effectiveness. The code is available at https://github.com/NJUyued/USP4SSCL.
- Abstract(参考訳): 半教師付き連続学習(SSCL)は、連続データ到着を管理しながらアノテーションコストを削減することを目的として、ラベル付きデータとラベルなしデータの両方を逐次学習設定で活用することを目指している。
SSCLは、効果的なラベルなし学習(UL)を保証する一方で、メモリ安定性(MS)と学習可塑性(LP)のバランスをとるなど、複雑な課題を導入している。
従来、SSCLの取り組みは3つの独立した側面に重点を置いてきたが、この3つの側面を相乗的に強化するために設計された分割型フレームワークであるUSPは、(1)古いクラスを均等なタイトなフレームに形成することで将来のクラスの予備的な特徴位置を構築するLPの機能空間保存(FSR)戦略、(2)高信頼データと低信頼データの両方に信頼性の高い疑似ラベルを割り当てるULのDCPアプローチ、(3)MSのDCP出力を再利用して非ラベルデータにアンロックするUnlabeled Distillation(CUD)である。
総合的な評価では、USPはSSCL法よりも優れており、最終精度は5.94%向上し、有効性は検証されている。
コードはhttps://github.com/NJUyued/USP4SSCLで入手できる。
関連論文リスト
- 3DResT: A Strong Baseline for Semi-Supervised 3D Referring Expression Segmentation [73.877177695218]
3D参照式(3D-RES)は通常、広範囲のインスタンスレベルのアノテーションを必要とします。
半教師付き学習(SSL)は、制限付きラベル付きデータと豊富なラベル付きデータを使用することでこれを緩和し、アノテーションのコストを削減しながらパフォーマンスを向上する。
本稿では,3D-RESのための半教師付き学習フレームワークについて紹介し,3DResTという頑健なベースライン手法を提案する。
論文 参考訳(メタデータ) (2025-04-17T02:50:52Z) - CRMSP: A Semi-supervised Approach for Key Information Extraction with Class-Rebalancing and Merged Semantic Pseudo-Labeling [10.886757419138343]
CRMSP(Semantic Pseudo-Labeling)によるクラスリバランシングとマージされたセマンティックPseudo-Labeling)によるKIEのための新しい半教師付きアプローチを提案する。
CRPモジュールは、擬似ラベルを再バランスするために再重み付け要素を導入し、テールクラスに注意を向ける。
MSPモジュールはMerged Prototypes (MP) にサンプルを割り当てることでラベルなしデータのテール特徴をクラスタ化する
論文 参考訳(メタデータ) (2024-07-19T07:41:26Z) - Continual Learning on a Diet: Learning from Sparsely Labeled Streams Under Constrained Computation [123.4883806344334]
本研究では,学習アルゴリズムが学習段階ごとに制限された計算予算を付与する,現実的な連続学習環境について検討する。
この設定を,スパースラベル率の高い大規模半教師付き連続学習シナリオに適用する。
広範に分析と改善を行った結果,DietCLはラベル空間,計算予算,その他様々な改善の完全な範囲で安定していることがわかった。
論文 参考訳(メタデータ) (2024-04-19T10:10:39Z) - Dynamic Sub-graph Distillation for Robust Semi-supervised Continual Learning [47.64252639582435]
半教師付き連続学習(SSCL)に焦点をあて、そのモデルが未知のカテゴリを持つ部分ラベル付きデータから徐々に学習する。
半教師付き連続学習のための動的サブグラフ蒸留法(DSGD)を提案する。
論文 参考訳(メタデータ) (2023-12-27T04:40:12Z) - Roll With the Punches: Expansion and Shrinkage of Soft Label Selection
for Semi-supervised Fine-Grained Learning [42.71454054383897]
クラス遷移追跡(SoC)に基づく信頼度を考慮したクラスタリングによるソフトラベルの選択を提案する。
本手法は,SS-FGVCにおける優れた性能を示す。
論文 参考訳(メタデータ) (2023-12-19T15:22:37Z) - ProtoCon: Pseudo-label Refinement via Online Clustering and Prototypical
Consistency for Efficient Semi-supervised Learning [60.57998388590556]
ProtoConは信頼性に基づく疑似ラベル作成の新しい手法である。
ProtoConのオンライン版では、データセット全体のラベル履歴を1回のトレーニングサイクルで活用することができる。
最先端のデータセットよりも大幅に向上し、より高速に収束する。
論文 参考訳(メタデータ) (2023-03-22T23:51:54Z) - Uncertainty-Aware Distillation for Semi-Supervised Few-Shot
Class-Incremental Learning [16.90277839119862]
クラス平衡による不確実性認識蒸留(UaD-CE)というフレームワークを提案する。
疑似ラベル生成において,クラスバランスの取れた自己学習を取り入れたCEモジュールを導入する。
3つのベンチマークデータセットの総合的な実験により、本手法はラベルなしデータの適応性を向上できることを示した。
論文 参考訳(メタデータ) (2023-01-24T12:53:06Z) - Contrastive Credibility Propagation for Reliable Semi-Supervised Learning [6.014538614447467]
逐次的擬似ラベルリファインメントによる深部SSLのためのコントラストCCP(Contrastive Credibility Propagation)を提案する。
CCPは、教師付きベースラインをデータシナリオで確実に上回るために、半教師付き学習とノイズの多いラベル学習を統一する。
論文 参考訳(メタデータ) (2022-11-17T23:01:47Z) - Open-Set Semi-Supervised Learning for 3D Point Cloud Understanding [62.17020485045456]
半教師付き学習(SSL)では、ラベル付きデータと同じ分布からラベル付きデータが引き出されることが一般的である。
サンプル重み付けによりラベルなしデータを選択的に活用することを提案する。
論文 参考訳(メタデータ) (2022-05-02T16:09:17Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z) - ORDisCo: Effective and Efficient Usage of Incremental Unlabeled Data for
Semi-supervised Continual Learning [52.831894583501395]
連続学習は、入力されたデータが完全にラベル付けされていると仮定し、実際のアプリケーションでは適用できないかもしれない。
我々は、条件付き生成逆数ネットワーク(GAN)を用いた分類器を相互に学習するために、識別器整合(ORDisCo)を用いたディープオンライン再生を提案する。
ORDisCo が SSCL の様々な半教師付き学習ベンチマークデータセットで大幅なパフォーマンス向上を達成していることを示します。
論文 参考訳(メタデータ) (2021-01-02T09:04:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。