論文の概要: Deep Categorization with Semi-Supervised Self-Organizing Maps
- arxiv url: http://arxiv.org/abs/2006.13682v1
- Date: Wed, 17 Jun 2020 22:00:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 18:57:57.260198
- Title: Deep Categorization with Semi-Supervised Self-Organizing Maps
- Title(参考訳): 半監督型自己組織化マップによる深層分類
- Authors: Pedro H. M. Braga, Heitor R. Medeiros and Hansenclever F. Bassani
- Abstract要約: 本稿では,Batch Semi-Supervised Self-Organizing Map (Batch SS-SOM)と呼ばれる半教師付きモデルを提案する。
その結果,Batch SS-SOMは半教師付き分類とクラスタリングに最適であることがわかった。
少数のラベル付きサンプルであっても、精度とクラスタリングエラーの点でうまく機能する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Nowadays, with the advance of technology, there is an increasing amount of
unstructured data being generated every day. However, it is a painful job to
label and organize it. Labeling is an expensive, time-consuming, and difficult
task. It is usually done manually, which collaborates with the incorporation of
noise and errors to the data. Hence, it is of great importance to developing
intelligent models that can benefit from both labeled and unlabeled data.
Currently, works on unsupervised and semi-supervised learning are still being
overshadowed by the successes of purely supervised learning. However, it is
expected that they become far more important in the longer term. This article
presents a semi-supervised model, called Batch Semi-Supervised Self-Organizing
Map (Batch SS-SOM), which is an extension of a SOM incorporating some advances
that came with the rise of Deep Learning, such as batch training. The results
show that Batch SS-SOM is a good option for semi-supervised classification and
clustering. It performs well in terms of accuracy and clustering error, even
with a small number of labeled samples, as well as when presented to
unsupervised data, and shows competitive results in transfer learning scenarios
in traditional image classification benchmark datasets.
- Abstract(参考訳): 今日では、技術の進歩とともに、毎日大量の非構造化データが生成されるようになっている。
しかし、それをラベル付けして整理するのは辛い仕事です。
ラベル付けは高価で、時間がかかり、難しい作業である。
通常は手作業で行われ、データへのノイズやエラーの取り込みと協調する。
したがって、ラベル付きデータとラベルなしデータの両方から利益を得られるインテリジェントなモデルを開発することは非常に重要である。
現在、教師なしと半教師なしの学習の研究は、純粋な教師付き学習の成功によって、まだ影が隠れている。
しかし、長期的にはより重要になることが期待されている。
本稿では,バッチ・セミ・スーパービジョン・セルフ・オーガナイゼーション・マップ(Batch Semi-Supervised Self-Organizing Map, Batch SS-SOM)と呼ばれる半教師付きモデルを提案する。
その結果,Batch SS-SOMは半教師付き分類とクラスタリングに最適であることがわかった。
少数のラベル付きサンプルや教師なしデータに提示された場合であっても、精度とクラスタリングエラーの点で良好に動作し、従来の画像分類ベンチマークデータセットでの転送学習シナリオにおける競合結果を示す。
関連論文リスト
- Semi-unsupervised Learning for Time Series Classification [1.8811803364757567]
時系列はユビキタスで、本質的に分析が困難で、最終的にラベルやクラスタになる。
時系列データを分類するための半教師なし学習のための深いガウス混合モデルSuSL4TSを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:59:38Z) - Improving Contrastive Learning on Imbalanced Seed Data via Open-World
Sampling [96.8742582581744]
我々は、Model-Aware K-center (MAK)と呼ばれるオープンワールドなラベルなしデータサンプリングフレームワークを提案する。
MAKは、尾性、近接性、多様性の3つの単純な原則に従う。
我々はMAKが学習した機能の全体的な表現品質とクラスバランス性の両方を継続的に改善できることを実証した。
論文 参考訳(メタデータ) (2021-11-01T15:09:41Z) - BiSTF: Bilateral-Branch Self-Training Framework for Semi-Supervised
Large-scale Fine-Grained Recognition [28.06659482245647]
半教師付きファイングラインド認識は、データ不均衡、高いクラス間類似性、ドメインミスマッチによる課題である。
本稿では,バイラテラルブランチ・セルフトレーニング・フレームワーク (Bilateral-Branch Self-Training Framework, BiSTF) を提案する。
BiSTFはSemi-iNatデータセット上で既存の最先端SSLよりも優れています。
論文 参考訳(メタデータ) (2021-07-14T15:28:54Z) - Training image classifiers using Semi-Weak Label Data [26.04162590798731]
多重インスタンス学習(MIL)では、弱ラベルがバッグレベルで提供され、存在/存在情報のみが知られる。
本稿では,この問題を軽減するため,新たな半弱ラベル学習パラダイムを提案する。
半弱ラベルから学習する問題に対処する2段階のフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-19T03:06:07Z) - Are Fewer Labels Possible for Few-shot Learning? [81.89996465197392]
ごく限られたデータとラベルのため、わずかなショット学習は難しい。
近年のBiT (Big Transfer) 研究は、異なる領域における大規模ラベル付きデータセットの事前トレーニングによって、少数ショット学習が大きな恩恵を受けることを示した。
本稿では,ファインチューニングにおけるクラスタリングと固有サンプルの共進化を活かし,ショット学習の削減を図る。
論文 参考訳(メタデータ) (2020-12-10T18:59:29Z) - Boosting the Performance of Semi-Supervised Learning with Unsupervised
Clustering [10.033658645311188]
学習中の間欠的にラベルを完全に無視することは,小サンプル体制における性能を著しく向上させることを示す。
本手法は,最先端のSSLアルゴリズムの高速化に有効であることを示す。
論文 参考訳(メタデータ) (2020-12-01T14:19:14Z) - GPU-based Self-Organizing Maps for Post-Labeled Few-Shot Unsupervised
Learning [2.922007656878633]
少ないショット分類は、非常に限られたラベル付き例を使って分類器を訓練することを目的としている機械学習の課題である。
本稿では,無指導で表現を学習する分類タスクである,ラベル付き数発の教師なし学習の問題について,アノテートされたごく少数の例を用いて後述する。
論文 参考訳(メタデータ) (2020-09-04T13:22:28Z) - Learning to Count in the Crowd from Limited Labeled Data [109.2954525909007]
我々は,限られた数のラベル付きサンプルから参加者を数えることを学ぶことで,アノテーションの努力を減らすことに重点を置いている。
具体的には,未ラベルデータに対する擬似地下真理推定を含むガウス過程に基づく反復学習機構を提案する。
論文 参考訳(メタデータ) (2020-07-07T04:17:01Z) - Temporal Calibrated Regularization for Robust Noisy Label Learning [60.90967240168525]
ディープニューラルネットワーク(DNN)は、大規模な注釈付きデータセットの助けを借りて、多くのタスクで大きな成功を収めている。
しかし、大規模なデータのラベル付けは非常にコストがかかりエラーが発生しやすいため、アノテーションの品質を保証することは困難である。
本稿では,従来のラベルと予測を併用したTCR(Temporal Calibrated Regularization)を提案する。
論文 参考訳(メタデータ) (2020-07-01T04:48:49Z) - ATSO: Asynchronous Teacher-Student Optimization for Semi-Supervised
Medical Image Segmentation [99.90263375737362]
教師-学生最適化の非同期版であるATSOを提案する。
ATSOはラベルのないデータを2つのサブセットに分割し、モデルの微調整に1つのサブセットを交互に使用し、他のサブセットのラベルを更新する。
医用画像のセグメンテーションデータセットを2つ評価し,様々な半教師付き環境において優れた性能を示す。
論文 参考訳(メタデータ) (2020-06-24T04:05:12Z) - Improving Semantic Segmentation via Self-Training [75.07114899941095]
半教師付きアプローチ,特に自己学習パラダイムを用いて,最先端の成果を得ることができることを示す。
まず、ラベル付きデータに基づいて教師モデルを訓練し、次にラベルなしデータの大規模なセット上で擬似ラベルを生成する。
私たちの堅牢なトレーニングフレームワークは、人名と擬似ラベルを共同で消化し、Cityscapes、CamVid、KITTIデータセット上で最高のパフォーマンスを達成することができます。
論文 参考訳(メタデータ) (2020-04-30T17:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。