論文の概要: RoPAWS: Robust Semi-supervised Representation Learning from Uncurated
Data
- arxiv url: http://arxiv.org/abs/2302.14483v1
- Date: Tue, 28 Feb 2023 10:54:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-01 16:51:00.097434
- Title: RoPAWS: Robust Semi-supervised Representation Learning from Uncurated
Data
- Title(参考訳): RoPAWS: 未処理データからのロバストな半教師付き表現学習
- Authors: Sangwoo Mo, Jong-Chyi Su, Chih-Yao Ma, Mido Assran, Ishan Misra,
Licheng Yu, Sean Bell
- Abstract要約: PAWSのような画像分類のための最先端の半教師付き手法は、キュレートされたデータで学習された自己教師付き表現に依存している。
我々は、現実世界のラベルなしデータを扱うことができるPAWSの堅牢な拡張であるRoPAWSを提案する。
我々は、RoPAWSが未処理のSemi-iNatのPAWSを+5.3%改善し、ImageNetを+0.4%改善したことを実証した。
- 参考スコア(独自算出の注目度): 37.93552560406823
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semi-supervised learning aims to train a model using limited labels.
State-of-the-art semi-supervised methods for image classification such as PAWS
rely on self-supervised representations learned with large-scale unlabeled but
curated data. However, PAWS is often less effective when using real-world
unlabeled data that is uncurated, e.g., contains out-of-class data. We propose
RoPAWS, a robust extension of PAWS that can work with real-world unlabeled
data. We first reinterpret PAWS as a generative classifier that models
densities using kernel density estimation. From this probabilistic perspective,
we calibrate its prediction based on the densities of labeled and unlabeled
data, which leads to a simple closed-form solution from the Bayes' rule. We
demonstrate that RoPAWS significantly improves PAWS for uncurated Semi-iNat by
+5.3% and curated ImageNet by +0.4%.
- Abstract(参考訳): 半教師付き学習は限定ラベルを使ってモデルを訓練することを目的としている。
pawsのような画像分類のための最先端の半教師あり手法は、大規模なラベルのないキュレーションデータで学習された自己教師あり表現に依存している。
しかしながら、PAWSは、例えばクラス外データを含むような未ラベルの実際のデータを使用する場合、しばしば効果が低い。
我々は、現実世界のラベルなしデータを扱うことができるPAWSの堅牢な拡張であるRoPAWSを提案する。
まず、カーネル密度推定を用いて密度をモデル化する生成分類器として、PAWSを再解釈する。
この確率論的観点からは、ラベル付きデータとラベルなしデータの密度に基づいて予測を校正し、ベイズの法則から単純なクローズドフォームソリューションへと導く。
我々は、RoPAWSが未処理のSemi-iNatのPAWSを+5.3%改善し、ImageNetを+0.4%改善したことを実証した。
関連論文リスト
- Safe Semi-Supervised Contrastive Learning Using In-Distribution Data as Positive Examples [3.4546761246181696]
本稿では,大量のラベルのないデータを完全に活用するための,自己教師付きコントラスト学習手法を提案する。
その結果,自己指導型コントラスト学習は分類精度を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2024-08-03T22:33:13Z) - All Points Matter: Entropy-Regularized Distribution Alignment for
Weakly-supervised 3D Segmentation [67.30502812804271]
擬似ラベルは、弱い教師付き3Dセグメンテーションタスクに広く使われており、学習に使えるのはスパース・グラウンド・トラス・ラベルのみである。
本稿では,生成した擬似ラベルを正規化し,擬似ラベルとモデル予測とのギャップを効果的に狭めるための新しい学習戦略を提案する。
論文 参考訳(メタデータ) (2023-05-25T08:19:31Z) - NP-Match: Towards a New Probabilistic Model for Semi-Supervised Learning [86.60013228560452]
半教師付き学習(SSL)は近年広く研究されており、ラベルのないデータを活用する効果的な方法である。
本研究では,ニューラルネットワーク(NP)を半教師付き画像分類タスクに調整し,NP-Matchと呼ばれる新しい手法を提案する。
NP-Matchは、予測を行う際のデータポイントを暗黙的に比較し、その結果、ラベル付けされていない各データポイントの予測がラベル付きデータポイントに影響される。
論文 参考訳(メタデータ) (2023-01-31T11:44:45Z) - A soft nearest-neighbor framework for continual semi-supervised learning [35.957577587090604]
本稿では,全てのデータサンプルがラベル付けされていない連続的半教師付き学習手法を提案する。
我々は、最も近い隣人の力を利用して、特徴空間を非線形に分割し、基礎となるデータ分布を柔軟にモデル化する。
提案手法は,低解像度画像と高解像度画像の両方で良好に動作し,より複雑なデータセットにシームレスにスケールする。
論文 参考訳(メタデータ) (2022-12-09T20:03:59Z) - Improving Zero-Shot Models with Label Distribution Priors [33.51714665243138]
本稿では,ゼロショットモデルを適用した新しいアプローチであるCLIPPRを提案する。
UTK年齢回帰作業における平均絶対誤差は平均28%改善した。
また、分類ベンチマークの有望な結果を示し、ラベルを使わずにImageNetデータセットの分類精度を2.83%改善した。
論文 参考訳(メタデータ) (2022-12-01T18:59:03Z) - A semi-supervised Teacher-Student framework for surgical tool detection
and localization [2.41710192205034]
外科的ツール検出のパラダイムにおいて,半教師付き学習(SSL)フレームワークを導入する。
提案手法では,教師-学生共同学習を初期化するラベル付きデータを用いたモデルを訓練する。
m2cai16-tool-locations データセットの結果は、異なる教師付きデータ設定に対するアプローチの優位性を示している。
論文 参考訳(メタデータ) (2022-08-21T17:21:31Z) - Few-Shot Non-Parametric Learning with Deep Latent Variable Model [50.746273235463754]
遅延変数を用いた圧縮による非パラメトリック学習(NPC-LV)を提案する。
NPC-LVは、ラベルなしデータが多いがラベル付きデータはほとんどないデータセットの学習フレームワークである。
我々は,NPC-LVが低データ構造における画像分類における3つのデータセットの教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-23T09:35:03Z) - Improving Contrastive Learning on Imbalanced Seed Data via Open-World
Sampling [96.8742582581744]
我々は、Model-Aware K-center (MAK)と呼ばれるオープンワールドなラベルなしデータサンプリングフレームワークを提案する。
MAKは、尾性、近接性、多様性の3つの単純な原則に従う。
我々はMAKが学習した機能の全体的な表現品質とクラスバランス性の両方を継続的に改善できることを実証した。
論文 参考訳(メタデータ) (2021-11-01T15:09:41Z) - Don't Wait, Just Weight: Improving Unsupervised Representations by
Learning Goal-Driven Instance Weights [92.16372657233394]
自己教師付き学習技術は、役に立たないデータから有用な表現を学習することで、パフォーマンスを向上させることができる。
ベイジアンのインスタンスの重み付けを学習することで、下流の分類精度を向上させることができることを示す。
本研究では,STL-10 と Visual Decathlon の自己教師型回転予測タスクを用いて,BetaDataWeighter の評価を行った。
論文 参考訳(メタデータ) (2020-06-22T15:59:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。