論文の概要: Semi-supervised learning method based on predefined evenly-distributed
class centroids
- arxiv url: http://arxiv.org/abs/2001.04092v1
- Date: Mon, 13 Jan 2020 08:03:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 22:40:02.795485
- Title: Semi-supervised learning method based on predefined evenly-distributed
class centroids
- Title(参考訳): 事前定義された等分散クラスセントロイドに基づく半教師付き学習法
- Authors: Qiuyu Zhu and Tiantian Li
- Abstract要約: 少数のラベル付きサンプルを使用し、ラベルなしサンプルにデータ拡張を行い、画像分類を実現する。
CIFAR10は4000,SVHNは1000,SVHNは95.10%,精度は97.58%であった。
- 参考スコア(独自算出の注目度): 7.499563097360385
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Compared to supervised learning, semi-supervised learning reduces the
dependence of deep learning on a large number of labeled samples. In this work,
we use a small number of labeled samples and perform data augmentation on
unlabeled samples to achieve image classification. Our method constrains all
samples to the predefined evenly-distributed class centroids (PEDCC) by the
corresponding loss function. Specifically, the PEDCC-Loss for labeled samples,
and the maximum mean discrepancy loss for unlabeled samples are used to make
the feature distribution closer to the distribution of PEDCC. Our method
ensures that the inter-class distance is large and the intra-class distance is
small enough to make the classification boundaries between different classes
clearer. Meanwhile, for unlabeled samples, we also use KL divergence to
constrain the consistency of the network predictions between unlabeled and
augmented samples. Our semi-supervised learning method achieves the
state-of-the-art results, with 4000 labeled samples on CIFAR10 and 1000 labeled
samples on SVHN, and the accuracy is 95.10% and 97.58% respectively.
- Abstract(参考訳): 教師付き学習と比較して、半教師付き学習は多数のラベル付きサンプルに対するディープラーニングの依存を減らす。
本研究では,少数のラベル付きサンプルを用いて,ラベルなしサンプルにデータ拡張を行い,画像分類を実現する。
本手法は, 予め定義された等分散クラスセントロイド (PEDCC) に対して, 対応する損失関数により全てのサンプルを拘束する。
具体的には、ラベル付きサンプルに対するPEDCC-Lossとラベル付きサンプルに対する最大平均誤差損失を用いて、PEDCCの分布に近づいた特徴分布を作成する。
本手法は,クラス間距離が大きく,クラス内距離が小さく,異なるクラス間の分類境界をより明確にすることを保証する。
一方、未ラベルサンプルに対しては、未ラベルサンプルと拡張サンプルの間のネットワーク予測の一貫性を制約するためにKL発散を用いる。
半教師あり学習法では,cifar10では4000点,svhnでは1000点,精度は95.10%,97.58%であった。
関連論文リスト
- Pairwise Similarity Distribution Clustering for Noisy Label Learning [0.0]
ノイズラベル学習は、ノイズラベルを持つ大量のサンプルを使用してディープニューラルネットワークをトレーニングすることを目的としている。
トレーニングサンプルを1つのクリーンなセットと別のノイズのあるセットに分割する,単純で効果的なサンプル選択アルゴリズムを提案する。
CIFAR-10、CIFAR-100、Clothing1Mといった様々なベンチマークデータセットの実験結果は、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-04-02T11:30:22Z) - VLM-CPL: Consensus Pseudo Labels from Vision-Language Models for Human Annotation-Free Pathological Image Classification [23.08368823707528]
本稿では,VLM(Venture-Language Models)を利用した画像分類法を提案する。
2つのノイズラベルフィルタリング技術と半教師付き学習戦略を統合した,コンセンサス擬似ラベルに基づく新しい手法 VLM-CPL を提案する。
実験の結果,HPHデータセットとLC25Kデータセットの精度は87.1%,95.1%であった。
論文 参考訳(メタデータ) (2024-03-23T13:24:30Z) - Twice Class Bias Correction for Imbalanced Semi-Supervised Learning [59.90429949214134]
textbfTwice textbfClass textbfBias textbfCorrection (textbfTCBC) と呼ばれる新しいアプローチを導入する。
トレーニング過程におけるモデルパラメータのクラスバイアスを推定する。
非ラベル標本に対してモデルの擬似ラベルに二次補正を適用する。
論文 参考訳(メタデータ) (2023-12-27T15:06:36Z) - Virtual Category Learning: A Semi-Supervised Learning Method for Dense
Prediction with Extremely Limited Labels [63.16824565919966]
本稿では,ラベルの修正を伴わずに,混乱したサンプルを積極的に使用することを提案する。
仮想カテゴリー(VC)は、モデルの最適化に安全に貢献できるように、各混乱したサンプルに割り当てられる。
私たちの興味深い発見は、密集した視覚タスクにおけるVC学習の利用に注目しています。
論文 参考訳(メタデータ) (2023-12-02T16:23:52Z) - Shrinking Class Space for Enhanced Certainty in Semi-Supervised Learning [59.44422468242455]
そこで我々はShrinkMatchと呼ばれる新しい手法を提案し、不確実なサンプルを学習する。
それぞれの不確実なサンプルに対して、元の Top-1 クラスを単に含むスランク類空間を適応的に求める。
次に、スランク空間における強と弱に強化された2つのサンプル間の整合正則化を課し、識別的表現を試みます。
論文 参考訳(メタデータ) (2023-08-13T14:05:24Z) - Deep Metric Learning Assisted by Intra-variance in A Semi-supervised
View of Learning [0.0]
ディープ・メトリック・ラーニングは、異なるクラスのサンプルが互いに遠く離れているのに対して、同じクラスのサンプルが互いに近い埋め込み空間を構築することを目的としている。
本稿では,従来の教師付き深度学習のためのクラス内分散学習スキームの半教師付きビューを提供する自己教師付き生成支援ランキングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-04-21T13:30:32Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Multi-Class Data Description for Out-of-distribution Detection [25.853322158250435]
Deep-MCDDは、分布外(OOD)サンプルを検出するだけでなく、分布内(ID)サンプルを分類するのに効果的です。
ガウス微分分析の概念をディープニューラルネットワークに統合することにより,クラス条件分布を学習する深層学習目標を提案する。
論文 参考訳(メタデータ) (2021-04-02T08:41:51Z) - Minimax Active Learning [61.729667575374606]
アクティブラーニングは、人間のアノテーションによってラベル付けされる最も代表的なサンプルをクエリすることによって、ラベル効率の高いアルゴリズムを開発することを目指している。
現在のアクティブラーニング技術は、最も不確実なサンプルを選択するためにモデルの不確実性に頼るか、クラスタリングを使うか、最も多様なラベルのないサンプルを選択するために再構築する。
我々は,不確実性と多様性を両立させる半教師付きミニマックスエントロピーに基づく能動学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-12-18T19:03:40Z) - Binary classification with ambiguous training data [69.50862982117127]
教師付き学習では、ドメインの専門家でさえラベル付けが難しい曖昧な(A)サンプルに直面します。
この問題は、ラベルなしサンプルが必ずしも難しいサンプルではないため、半教師付き学習とは大きく異なる。
論文 参考訳(メタデータ) (2020-11-05T00:53:58Z) - Curriculum Labeling: Revisiting Pseudo-Labeling for Semi-Supervised
Learning [27.258077365554474]
半教師あり学習の文脈における擬似ラベルの考え方を再考する。
Pseudo-labelingは、未ラベル集合のサンプルに擬似ラベルを適用することで機能する。
CIFAR-10で94.91%、Imagenet-ILSVRCで68.87%、ラベル付きサンプルで68.87%の精度で94.91%の精度を得る。
論文 参考訳(メタデータ) (2020-01-16T03:24:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。