論文の概要: Technical Report for the 5th CLVision Challenge at CVPR: Addressing the Class-Incremental with Repetition using Unlabeled Data -- 4th Place Solution
- arxiv url: http://arxiv.org/abs/2503.15697v1
- Date: Wed, 19 Mar 2025 21:11:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 16:34:17.206088
- Title: Technical Report for the 5th CLVision Challenge at CVPR: Addressing the Class-Incremental with Repetition using Unlabeled Data -- 4th Place Solution
- Title(参考訳): CVPR第5回CLVision Challengeの技術的報告: 未ラベルデータによる反復によるクラスインクリメンタルへの取り組み -- 第4位
- Authors: Panagiota Moraiti, Efstathios Karypidis,
- Abstract要約: 本稿では,CVPRにおける第5回CLVisionチャレンジへのアプローチについて概説する。
CIRのシナリオでは、遭遇したクラスは後続の学習経験で再出現し、各経験は全体のクラス分布のサブセットのみを含む。
本手法は, 知識蒸留と擬似ラベル技術を利用して, 学習知識の保持に重点を置いている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This paper outlines our approach to the 5th CLVision challenge at CVPR, which addresses the Class-Incremental with Repetition (CIR) scenario. In contrast to traditional class incremental learning, this novel setting introduces unique challenges and research opportunities, particularly through the integration of unlabeled data into the training process. In the CIR scenario, encountered classes may reappear in later learning experiences, and each experience may involve only a subset of the overall class distribution. Additionally, the unlabeled data provided during training may include instances of unseen classes, or irrelevant classes which should be ignored. Our approach focuses on retaining previously learned knowledge by utilizing knowledge distillation and pseudo-labeling techniques. The key characteristic of our method is the exploitation of unlabeled data during training, in order to maintain optimal performance on instances of previously encountered categories and reduce the detrimental effects of catastrophic forgetting. Our method achieves an average accuracy of 16.68\% during the pre-selection phase and 21.19% during the final evaluation phase, outperforming the baseline accuracy of 9.39%. We provide the implementation code at https://github.com/panagiotamoraiti/continual-learning-challenge-2024 .
- Abstract(参考訳): 本稿では,CIR(Class-Incremental with Repetition)のシナリオに対処するCVPRの第5回CLVisionチャレンジへのアプローチについて概説する。
従来のクラスインクリメンタルな学習とは対照的に、この新しい設定は、特にラベルなしデータのトレーニングプロセスへの統合を通じて、ユニークな課題と研究の機会をもたらす。
CIRのシナリオでは、遭遇したクラスは後続の学習経験で再出現し、各経験は全体のクラス分布のサブセットのみを含む。
さらに、トレーニング中に提供されるラベルなしのデータには、目に見えないクラスのインスタンスや無視されるべき無関係なクラスが含まれます。
本手法は, 知識蒸留と擬似ラベル技術を利用して, 学習知識の保持に重点を置いている。
本手法の主な特徴は,これまで遭遇したカテゴリのインスタンス上での最適な性能を維持し,破滅的忘れ込みによる有害な影響を低減するために,トレーニング中のラベルなしデータの活用である。
本手法は, 予備選考期間中の平均精度を16.68\%, 最終選考期間中の平均精度を21.19%とし, ベースライン精度を9.39%上回った。
実装コードはhttps://github.com/panagiotamoraiti/continual-learning-challenge-2024で公開しています。
関連論文リスト
- TACLE: Task and Class-aware Exemplar-free Semi-supervised Class Incremental Learning [16.734025446561695]
そこで本研究では,先進的な半教師付きクラスインクリメンタルラーニングの問題に対処する新しいTACLEフレームワークを提案する。
このシナリオでは、新しいタスクごとに、ラベル付きデータとラベルなしデータの両方から新しいクラスを学習する必要があります。
事前訓練されたモデルの能力を活用することに加えて、TACLEは新しいタスク適応しきい値を提案する。
論文 参考訳(メタデータ) (2024-07-10T20:46:35Z) - The Championship-Winning Solution for the 5th CLVISION Challenge 2024 [3.2899630403451985]
第5回CLVision Challengeでは,従来の漸進的学習を超越した,独特な課題を提示した。
我々のアプローチは、各タスクに対して独立したパラメータ空間を割り当てるためのWinning Subnetworksに基づいている。
推論段階では、特定のサンプルの特定のクラスに対する予測が、そのクラスに対応する異なるワークの平均ロジットとなる、ワーク間の相互作用戦略を考案した。
論文 参考訳(メタデータ) (2024-06-24T12:55:06Z) - Incremental Self-training for Semi-supervised Learning [56.57057576885672]
ISTは単純だが有効であり、既存の自己学習に基づく半教師あり学習手法に適合する。
提案したISTを5つのデータセットと2種類のバックボーンで検証し,認識精度と学習速度を効果的に向上させる。
論文 参考訳(メタデータ) (2024-04-14T05:02:00Z) - A Generalized Unbiased Risk Estimator for Learning with Augmented
Classes [70.20752731393938]
ラベルなしのデータが与えられた場合、非バイアスリスク推定器(URE)が導出され、理論的保証のあるLACでは最小限にすることができる。
理論的な保証を維持しつつ任意の損失関数を装備できる一般化されたUREを提案する。
論文 参考訳(メタデータ) (2023-06-12T06:52:04Z) - Complementary Labels Learning with Augmented Classes [22.460256396941528]
補完ラベル学習 (Complementary Labels Learning, CLL) は、プライベート質問分類やオンライン学習など、現実世界の多くのタスクに現れる。
CLLAC(Complementary Labels Learning with Augmented Classs)と呼ばれる新しい問題設定を提案する。
ラベルのないデータを用いて,CLLACの分類リスクの偏りのない推定手法を提案する。
論文 参考訳(メタデータ) (2022-11-19T13:55:27Z) - Continual Learning For On-Device Environmental Sound Classification [63.81276321857279]
デバイス上での環境音の分類のための簡易かつ効率的な連続学習法を提案する。
本手法は,サンプルごとの分類の不確実性を測定することにより,トレーニングの履歴データを選択する。
論文 参考訳(メタデータ) (2022-07-15T12:13:04Z) - Learning from Multiple Unlabeled Datasets with Partial Risk
Regularization [80.54710259664698]
本稿では,クラスラベルを使わずに正確な分類器を学習することを目的とする。
まず、与えられたラベルのない集合から推定できる分類リスクの偏りのない推定器を導出する。
その結果、経験的リスクがトレーニング中に負になるにつれて、分類器が過度に適合する傾向があることが判明した。
実験により,本手法は,複数の未ラベル集合から学習する最先端の手法を効果的に緩和し,性能を向上することを示した。
論文 参考訳(メタデータ) (2022-07-04T16:22:44Z) - Class-Aware Contrastive Semi-Supervised Learning [51.205844705156046]
本研究では,擬似ラベル品質を向上し,実環境におけるモデルの堅牢性を高めるため,CCSSL(Class-Aware Contrastive Semi-Supervised Learning)と呼ばれる一般的な手法を提案する。
提案するCCSSLは,標準データセットCIFAR100とSTL10の最先端SSLメソッドに対して,大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2022-03-04T12:18:23Z) - ORDisCo: Effective and Efficient Usage of Incremental Unlabeled Data for
Semi-supervised Continual Learning [52.831894583501395]
連続学習は、入力されたデータが完全にラベル付けされていると仮定し、実際のアプリケーションでは適用できないかもしれない。
我々は、条件付き生成逆数ネットワーク(GAN)を用いた分類器を相互に学習するために、識別器整合(ORDisCo)を用いたディープオンライン再生を提案する。
ORDisCo が SSCL の様々な半教師付き学習ベンチマークデータセットで大幅なパフォーマンス向上を達成していることを示します。
論文 参考訳(メタデータ) (2021-01-02T09:04:14Z) - Boosting the Performance of Semi-Supervised Learning with Unsupervised
Clustering [10.033658645311188]
学習中の間欠的にラベルを完全に無視することは,小サンプル体制における性能を著しく向上させることを示す。
本手法は,最先端のSSLアルゴリズムの高速化に有効であることを示す。
論文 参考訳(メタデータ) (2020-12-01T14:19:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。