論文の概要: Semi-supervised dictionary learning with graph regularization and active
points
- arxiv url: http://arxiv.org/abs/2009.05964v1
- Date: Sun, 13 Sep 2020 09:24:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 03:07:55.786877
- Title: Semi-supervised dictionary learning with graph regularization and active
points
- Title(参考訳): グラフ正規化とアクティブポイントを用いた半教師付き辞書学習
- Authors: Khanh-Hung Tran, Fred-Maurice Ngole-Mboula, Jean-Luc Starck and
Vincent Prost
- Abstract要約: 2つの柱に基づく辞書学習手法を提案する。
一方、元のデータから局所線形埋め込みを用いたスパース符号空間に多様体構造保存を強制する。
一方、スパース符号空間における半教師付き分類器を訓練する。
- 参考スコア(独自算出の注目度): 0.19947949439280027
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Supervised Dictionary Learning has gained much interest in the recent decade
and has shown significant performance improvements in image classification.
However, in general, supervised learning needs a large number of labelled
samples per class to achieve an acceptable result. In order to deal with
databases which have just a few labelled samples per class, semi-supervised
learning, which also exploits unlabelled samples in training phase is used.
Indeed, unlabelled samples can help to regularize the learning model, yielding
an improvement of classification accuracy. In this paper, we propose a new
semi-supervised dictionary learning method based on two pillars: on one hand,
we enforce manifold structure preservation from the original data into sparse
code space using Locally Linear Embedding, which can be considered a
regularization of sparse code; on the other hand, we train a semi-supervised
classifier in sparse code space. We show that our approach provides an
improvement over state-of-the-art semi-supervised dictionary learning methods.
- Abstract(参考訳): Supervised Dictionary Learningはこの10年で大きな関心を集め、画像分類の大幅な性能向上を示している。
しかし、一般に、教師あり学習は許容できる結果を得るためにクラスごとに多くのラベル付きサンプルを必要とする。
クラス毎に数個のラベル付きサンプルを持つデータベースに対処するために、トレーニングフェーズでラベルなしサンプルを利用する半教師付き学習が使用される。
実際、ラベルのないサンプルは学習モデルを規則化するのに役立ち、分類精度が向上する。
本稿では,2つの柱に基づく半教師付き辞書学習手法を提案する。一方,スパースコードの正規化と考えられる局所線形埋め込みを用いて,原データからスパースコード空間への多様体構造保存を強制する一方で,スパースコード空間における半教師付き分類器を訓練する。
本手法は,最先端の半教師付き辞書学習手法に対して改善をもたらすことを示す。
関連論文リスト
- Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - One-bit Supervision for Image Classification: Problem, Solution, and
Beyond [114.95815360508395]
本稿では,ラベルの少ない新しい学習環境である,画像分類のための1ビット監督について述べる。
多段階学習パラダイムを提案し、負ラベル抑圧を半教師付き半教師付き学習アルゴリズムに組み込む。
複数のベンチマークにおいて、提案手法の学習効率は、フルビットの半教師付き監視手法よりも優れている。
論文 参考訳(メタデータ) (2023-11-26T07:39:00Z) - Bridging the Gap: Learning Pace Synchronization for Open-World
Semi-Supervised Learning [49.07038093130949]
オープンワールドの半教師付き学習において、機械学習モデルはラベルなしのデータから新しいカテゴリを明らかにすることを任務とする。
モデルは、正確な監督情報によって、前者をより早く学習する。
本稿では,1) クラス分布の推定に基づく適応的マージンの損失,2) 学習ペースの同期化,2) 出力空間の同じクラスからサンプルを抽出する擬似ラベルコントラストクラスタリングについて紹介する。
論文 参考訳(メタデータ) (2023-09-21T09:44:39Z) - Rethinking Multiple Instance Learning for Whole Slide Image
Classification: A Good Instance Classifier is All You Need [8.05118395413556]
MIL設定下では,インスタンスレベルの弱教師付きコントラスト学習アルゴリズムを初めて提案する。
また,プロトタイプ学習による正確な擬似ラベル生成手法を提案する。
論文 参考訳(メタデータ) (2023-07-05T12:44:52Z) - Self-Training: A Survey [6.116681488656473]
半教師付きアルゴリズムは、ラベル付き観測の小さなセットとラベルなし観測の大きなセットから予測関数を学習することを目的としている。
近年,自己学習手法が注目されていることは確かである。
本稿では,バイナリクラスとマルチクラス分類のための自己学習手法と,その変種と関連する2つのアプローチを提案する。
論文 参考訳(メタデータ) (2022-02-24T11:40:44Z) - Learning with Neighbor Consistency for Noisy Labels [69.83857578836769]
特徴空間におけるトレーニング例間の類似性を利用した雑音ラベルから学習する手法を提案する。
合成(CIFAR-10, CIFAR-100)とリアル(mini-WebVision, Clothing1M, mini-ImageNet-Red)の両方のノイズを評価するデータセットの評価を行った。
論文 参考訳(メタデータ) (2022-02-04T15:46:27Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Model-Change Active Learning in Graph-Based Semi-Supervised Learning [7.208515071018781]
モデル変更」能動学習は、追加ラベルを導入して分類器に生じる結果の変化を定量化する
後方分布のラプラス近似を用いて, 取得関数を効率的に近似できる凸損失関数の族を考える。
論文 参考訳(メタデータ) (2021-10-14T21:47:10Z) - Semi-Supervised Learning using Siamese Networks [3.492636597449942]
本研究は,シームズネットワークを用いた類似度関数学習に基づく,半教師付き学習の新しい学習方法を提案する。
ラベルのないインスタンスの信頼性予測は、シームズネットワークを再トレーニングするための真のラベルとして使用される。
ラベルのない予測を改善するため,グローバルな一貫性を備えた局所学習も評価した。
論文 参考訳(メタデータ) (2021-09-02T09:06:35Z) - Grafit: Learning fine-grained image representations with coarse labels [114.17782143848315]
本稿では,学習ラベルの提供するものよりも細かな表現を学習する問題に対処する。
粗いラベルと下層の細粒度潜在空間を併用することにより、カテゴリレベルの検索手法の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2020-11-25T19:06:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。