論文の概要: Deep Categorization with Semi-Supervised Self-Organizing Maps
- arxiv url: http://arxiv.org/abs/2006.13682v1
- Date: Wed, 17 Jun 2020 22:00:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 18:57:57.260198
- Title: Deep Categorization with Semi-Supervised Self-Organizing Maps
- Title(参考訳): 半監督型自己組織化マップによる深層分類
- Authors: Pedro H. M. Braga, Heitor R. Medeiros and Hansenclever F. Bassani
- Abstract要約: 本稿では,Batch Semi-Supervised Self-Organizing Map (Batch SS-SOM)と呼ばれる半教師付きモデルを提案する。
その結果,Batch SS-SOMは半教師付き分類とクラスタリングに最適であることがわかった。
少数のラベル付きサンプルであっても、精度とクラスタリングエラーの点でうまく機能する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Nowadays, with the advance of technology, there is an increasing amount of
unstructured data being generated every day. However, it is a painful job to
label and organize it. Labeling is an expensive, time-consuming, and difficult
task. It is usually done manually, which collaborates with the incorporation of
noise and errors to the data. Hence, it is of great importance to developing
intelligent models that can benefit from both labeled and unlabeled data.
Currently, works on unsupervised and semi-supervised learning are still being
overshadowed by the successes of purely supervised learning. However, it is
expected that they become far more important in the longer term. This article
presents a semi-supervised model, called Batch Semi-Supervised Self-Organizing
Map (Batch SS-SOM), which is an extension of a SOM incorporating some advances
that came with the rise of Deep Learning, such as batch training. The results
show that Batch SS-SOM is a good option for semi-supervised classification and
clustering. It performs well in terms of accuracy and clustering error, even
with a small number of labeled samples, as well as when presented to
unsupervised data, and shows competitive results in transfer learning scenarios
in traditional image classification benchmark datasets.
- Abstract(参考訳): 今日では、技術の進歩とともに、毎日大量の非構造化データが生成されるようになっている。
しかし、それをラベル付けして整理するのは辛い仕事です。
ラベル付けは高価で、時間がかかり、難しい作業である。
通常は手作業で行われ、データへのノイズやエラーの取り込みと協調する。
したがって、ラベル付きデータとラベルなしデータの両方から利益を得られるインテリジェントなモデルを開発することは非常に重要である。
現在、教師なしと半教師なしの学習の研究は、純粋な教師付き学習の成功によって、まだ影が隠れている。
しかし、長期的にはより重要になることが期待されている。
本稿では,バッチ・セミ・スーパービジョン・セルフ・オーガナイゼーション・マップ(Batch Semi-Supervised Self-Organizing Map, Batch SS-SOM)と呼ばれる半教師付きモデルを提案する。
その結果,Batch SS-SOMは半教師付き分類とクラスタリングに最適であることがわかった。
少数のラベル付きサンプルや教師なしデータに提示された場合であっても、精度とクラスタリングエラーの点で良好に動作し、従来の画像分類ベンチマークデータセットでの転送学習シナリオにおける競合結果を示す。
関連論文リスト
- Continuous Contrastive Learning for Long-Tailed Semi-Supervised Recognition [50.61991746981703]
現在の最先端のLTSSLアプローチは、大規模な未ラベルデータに対して高品質な擬似ラベルに依存している。
本稿では,長期学習における様々な提案を統一する新しい確率的枠組みを提案する。
我々は、信頼度とスムーズな擬似ラベルを用いて、我々のフレームワークをラベルなしデータに拡張する、連続的コントラスト学習手法であるCCLを導入する。
論文 参考訳(メタデータ) (2024-10-08T15:06:10Z) - Semi-Supervised One-Shot Imitation Learning [83.94646047695412]
ワンショットのImitation Learningは、AIエージェントに1つのデモから新しいタスクを学ぶ能力を持たせることを目的としている。
我々は,学習エージェントにトラジェクトリの大規模なデータセットを提示する,半教師付きOSIL問題設定を導入する。
我々は,この半教師付きOSIL設定に適用可能なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-08-09T18:11:26Z) - Incremental Self-training for Semi-supervised Learning [56.57057576885672]
ISTは単純だが有効であり、既存の自己学習に基づく半教師あり学習手法に適合する。
提案したISTを5つのデータセットと2種類のバックボーンで検証し,認識精度と学習速度を効果的に向上させる。
論文 参考訳(メタデータ) (2024-04-14T05:02:00Z) - Semi-unsupervised Learning for Time Series Classification [1.8811803364757567]
時系列はユビキタスで、本質的に分析が困難で、最終的にラベルやクラスタになる。
時系列データを分類するための半教師なし学習のための深いガウス混合モデルSuSL4TSを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:59:38Z) - Training image classifiers using Semi-Weak Label Data [26.04162590798731]
多重インスタンス学習(MIL)では、弱ラベルがバッグレベルで提供され、存在/存在情報のみが知られる。
本稿では,この問題を軽減するため,新たな半弱ラベル学習パラダイムを提案する。
半弱ラベルから学習する問題に対処する2段階のフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-19T03:06:07Z) - Boosting the Performance of Semi-Supervised Learning with Unsupervised
Clustering [10.033658645311188]
学習中の間欠的にラベルを完全に無視することは,小サンプル体制における性能を著しく向上させることを示す。
本手法は,最先端のSSLアルゴリズムの高速化に有効であることを示す。
論文 参考訳(メタデータ) (2020-12-01T14:19:14Z) - GPU-based Self-Organizing Maps for Post-Labeled Few-Shot Unsupervised
Learning [2.922007656878633]
少ないショット分類は、非常に限られたラベル付き例を使って分類器を訓練することを目的としている機械学習の課題である。
本稿では,無指導で表現を学習する分類タスクである,ラベル付き数発の教師なし学習の問題について,アノテートされたごく少数の例を用いて後述する。
論文 参考訳(メタデータ) (2020-09-04T13:22:28Z) - Learning to Count in the Crowd from Limited Labeled Data [109.2954525909007]
我々は,限られた数のラベル付きサンプルから参加者を数えることを学ぶことで,アノテーションの努力を減らすことに重点を置いている。
具体的には,未ラベルデータに対する擬似地下真理推定を含むガウス過程に基づく反復学習機構を提案する。
論文 参考訳(メタデータ) (2020-07-07T04:17:01Z) - Temporal Calibrated Regularization for Robust Noisy Label Learning [60.90967240168525]
ディープニューラルネットワーク(DNN)は、大規模な注釈付きデータセットの助けを借りて、多くのタスクで大きな成功を収めている。
しかし、大規模なデータのラベル付けは非常にコストがかかりエラーが発生しやすいため、アノテーションの品質を保証することは困難である。
本稿では,従来のラベルと予測を併用したTCR(Temporal Calibrated Regularization)を提案する。
論文 参考訳(メタデータ) (2020-07-01T04:48:49Z) - Improving Semantic Segmentation via Self-Training [75.07114899941095]
半教師付きアプローチ,特に自己学習パラダイムを用いて,最先端の成果を得ることができることを示す。
まず、ラベル付きデータに基づいて教師モデルを訓練し、次にラベルなしデータの大規模なセット上で擬似ラベルを生成する。
私たちの堅牢なトレーニングフレームワークは、人名と擬似ラベルを共同で消化し、Cityscapes、CamVid、KITTIデータセット上で最高のパフォーマンスを達成することができます。
論文 参考訳(メタデータ) (2020-04-30T17:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。