論文の概要: Improving 3D Semi-supervised Learning by Effectively Utilizing All Unlabelled Data
- arxiv url: http://arxiv.org/abs/2409.13977v1
- Date: Sat, 21 Sep 2024 01:53:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 04:17:38.684643
- Title: Improving 3D Semi-supervised Learning by Effectively Utilizing All Unlabelled Data
- Title(参考訳): 非競合データを利用した3次元半教師あり学習の改善
- Authors: Sneha Paul, Zachary Patterson, Nizar Bouguila,
- Abstract要約: 半教師付き学習(SSL)は,少量のラベル付きデータから有効な3次元表現を学習する上での有効性を示した。
SSLベースの新しい3D分類フレームワークであるAllMatchを提案する。
- 参考スコア(独自算出の注目度): 21.015491263215786
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Semi-supervised learning (SSL) has shown its effectiveness in learning effective 3D representation from a small amount of labelled data while utilizing large unlabelled data. Traditional semi-supervised approaches rely on the fundamental concept of predicting pseudo-labels for unlabelled data and incorporating them into the learning process. However, we identify that the existing methods do not fully utilize all the unlabelled samples and consequently limit their potential performance. To address this issue, we propose AllMatch, a novel SSL-based 3D classification framework that effectively utilizes all the unlabelled samples. AllMatch comprises three modules: (1) an adaptive hard augmentation module that applies relatively hard augmentations to the high-confident unlabelled samples with lower loss values, thereby enhancing the contribution of such samples, (2) an inverse learning module that further improves the utilization of unlabelled data by learning what not to learn, and (3) a contrastive learning module that ensures learning from all the samples in both supervised and unsupervised settings. Comprehensive experiments on two popular 3D datasets demonstrate a performance improvement of up to 11.2% with 1% labelled data, surpassing the SOTA by a significant margin. Furthermore, AllMatch exhibits its efficiency in effectively leveraging all the unlabelled data, demonstrated by the fact that only 10% of labelled data reaches nearly the same performance as fully-supervised learning with all labelled data. The code of our work is available at: https://github.com/snehaputul/AllMatch.
- Abstract(参考訳): 半教師付き学習(SSL)は,少数のラベル付きデータから有効な3次元表現を学習する上で有効であることを示す。
従来の半教師付きアプローチは、重複しないデータに対して擬似ラベルを予測し、学習プロセスにそれらを組み込むという基本的な概念に依存している。
しかし,既存の手法では,全ての未ラベルサンプルを十分に活用できないため,潜在的な性能が制限されている。
この問題を解決するために、SSLベースの新しい3D分類フレームワークであるAllMatchを提案する。
AllMatch は,(1) 高信頼度未学習サンプルに対して低損失値で相対的に硬度強化を施した適応型ハード増進モジュール,(2) 学習すべきでないものを学習することで非ラベルデータの利用をさらに改善する逆学習モジュール,(3) 教師付きおよび教師なし両方の設定において,全てのサンプルから学習を確実にするコントラスト学習モジュールの3つのモジュールから構成される。
2つの人気のある3Dデータセットに関する総合的な実験は、1%のラベル付きデータで最大11.2%のパフォーマンス向上を示し、SOTAをかなりの差で上回っている。
さらに、AllMatchは、ラベル付きデータの10%だけが、ラベル付きデータで完全に教師付き学習されるのとほぼ同じパフォーマンスに達するという事実によって実証された、すべてのラベル付きデータを効果的に活用する効率を示している。
私たちの作業のコードは、https://github.com/snehaputul/AllMatch.comで公開されています。
関連論文リスト
- MaskMatch: Boosting Semi-Supervised Learning Through Mask Autoencoder-Driven Feature Learning [8.255082589733673]
algoは、ラベルのないデータを完全に活用して、半教師付き学習を促進する新しいアルゴリズムである。
algoは自己教師型学習戦略、すなわちMasked Autoencoder(MAE)を統合する。
アルゴは、挑戦的なデータセットでそれぞれ18.71%、9.47%、3.07%の低いエラー率を達成する。
論文 参考訳(メタデータ) (2024-05-10T03:39:54Z) - FlatMatch: Bridging Labeled Data and Unlabeled Data with Cross-Sharpness
for Semi-Supervised Learning [73.13448439554497]
Semi-Supervised Learning (SSL) は、ラベル付きデータが極めて少ない豊富なラベル付きデータを活用する効果的な方法である。
ほとんどのSSLメソッドは、通常、異なるデータ変換間のインスタンス単位の一貫性に基づいている。
本研究では,2つのデータセット間の一貫した学習性能を確保するために,クロスシャープネス尺度を最小化するFlatMatchを提案する。
論文 参考訳(メタデータ) (2023-10-25T06:57:59Z) - Boosting Semi-Supervised Learning by bridging high and low-confidence
predictions [4.18804572788063]
Pseudo-labelingは半教師あり学習(SSL)において重要な技術である
ReFixMatchと呼ばれる新しい手法を提案し、これはトレーニング中にラベルなしのデータをすべて活用することを目的としている。
論文 参考訳(メタデータ) (2023-08-15T00:27:18Z) - Scaling Up Semi-supervised Learning with Unconstrained Unlabelled Data [27.75143621836449]
制約のないデータから効果的な表現を学習できる半教師付き学習フレームワークUnMixMatchを提案する。
4つの一般的なデータセットに対して広範な実験を行い、4.79%の性能向上を伴う既存の半教師付き手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-06-02T01:07:14Z) - All Points Matter: Entropy-Regularized Distribution Alignment for
Weakly-supervised 3D Segmentation [67.30502812804271]
擬似ラベルは、弱い教師付き3Dセグメンテーションタスクに広く使われており、学習に使えるのはスパース・グラウンド・トラス・ラベルのみである。
本稿では,生成した擬似ラベルを正規化し,擬似ラベルとモデル予測とのギャップを効果的に狭めるための新しい学習戦略を提案する。
論文 参考訳(メタデータ) (2023-05-25T08:19:31Z) - Open-Set Semi-Supervised Learning for 3D Point Cloud Understanding [62.17020485045456]
半教師付き学習(SSL)では、ラベル付きデータと同じ分布からラベル付きデータが引き出されることが一般的である。
サンプル重み付けによりラベルなしデータを選択的に活用することを提案する。
論文 参考訳(メタデータ) (2022-05-02T16:09:17Z) - Class-Aware Contrastive Semi-Supervised Learning [51.205844705156046]
本研究では,擬似ラベル品質を向上し,実環境におけるモデルの堅牢性を高めるため,CCSSL(Class-Aware Contrastive Semi-Supervised Learning)と呼ばれる一般的な手法を提案する。
提案するCCSSLは,標準データセットCIFAR100とSTL10の最先端SSLメソッドに対して,大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2022-03-04T12:18:23Z) - Improving Contrastive Learning on Imbalanced Seed Data via Open-World
Sampling [96.8742582581744]
我々は、Model-Aware K-center (MAK)と呼ばれるオープンワールドなラベルなしデータサンプリングフレームワークを提案する。
MAKは、尾性、近接性、多様性の3つの単純な原則に従う。
我々はMAKが学習した機能の全体的な表現品質とクラスバランス性の両方を継続的に改善できることを実証した。
論文 参考訳(メタデータ) (2021-11-01T15:09:41Z) - OpenCoS: Contrastive Semi-supervised Learning for Handling Open-set
Unlabeled Data [65.19205979542305]
ラベル付けされていないデータには、実際にはクラス外のサンプルが含まれる。
OpenCoSは、このリアルな半教師付き学習シナリオを扱う方法である。
論文 参考訳(メタデータ) (2021-06-29T06:10:05Z) - Rethinking Curriculum Learning with Incremental Labels and Adaptive
Compensation [35.593312267921256]
人間と同様に、ディープネットワークは、サンプルが組織化され、意味のある順序やカリキュラムで導入されたときに、よりよく学習することが示されている。
インクリメンタルラベルと適応補償を用いた学習(LILAC)を提案する。
論文 参考訳(メタデータ) (2020-01-13T21:00:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。