論文の概要: Semi-supervised dictionary learning with graph regularization and active
points
- arxiv url: http://arxiv.org/abs/2009.05964v1
- Date: Sun, 13 Sep 2020 09:24:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 03:07:55.786877
- Title: Semi-supervised dictionary learning with graph regularization and active
points
- Title(参考訳): グラフ正規化とアクティブポイントを用いた半教師付き辞書学習
- Authors: Khanh-Hung Tran, Fred-Maurice Ngole-Mboula, Jean-Luc Starck and
Vincent Prost
- Abstract要約: 2つの柱に基づく辞書学習手法を提案する。
一方、元のデータから局所線形埋め込みを用いたスパース符号空間に多様体構造保存を強制する。
一方、スパース符号空間における半教師付き分類器を訓練する。
- 参考スコア(独自算出の注目度): 0.19947949439280027
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Supervised Dictionary Learning has gained much interest in the recent decade
and has shown significant performance improvements in image classification.
However, in general, supervised learning needs a large number of labelled
samples per class to achieve an acceptable result. In order to deal with
databases which have just a few labelled samples per class, semi-supervised
learning, which also exploits unlabelled samples in training phase is used.
Indeed, unlabelled samples can help to regularize the learning model, yielding
an improvement of classification accuracy. In this paper, we propose a new
semi-supervised dictionary learning method based on two pillars: on one hand,
we enforce manifold structure preservation from the original data into sparse
code space using Locally Linear Embedding, which can be considered a
regularization of sparse code; on the other hand, we train a semi-supervised
classifier in sparse code space. We show that our approach provides an
improvement over state-of-the-art semi-supervised dictionary learning methods.
- Abstract(参考訳): Supervised Dictionary Learningはこの10年で大きな関心を集め、画像分類の大幅な性能向上を示している。
しかし、一般に、教師あり学習は許容できる結果を得るためにクラスごとに多くのラベル付きサンプルを必要とする。
クラス毎に数個のラベル付きサンプルを持つデータベースに対処するために、トレーニングフェーズでラベルなしサンプルを利用する半教師付き学習が使用される。
実際、ラベルのないサンプルは学習モデルを規則化するのに役立ち、分類精度が向上する。
本稿では,2つの柱に基づく半教師付き辞書学習手法を提案する。一方,スパースコードの正規化と考えられる局所線形埋め込みを用いて,原データからスパースコード空間への多様体構造保存を強制する一方で,スパースコード空間における半教師付き分類器を訓練する。
本手法は,最先端の半教師付き辞書学習手法に対して改善をもたらすことを示す。
関連論文リスト
- Graph-Based Semi-Supervised Segregated Lipschitz Learning [0.21847754147782888]
本稿では,グラフ上のリプシッツ学習を用いたデータ分類のための半教師付き学習手法を提案する。
グラフに基づく半教師付き学習フレームワークを開発し、無限ラプラシアンの性質を利用して、少数のサンプルしかラベル付けされていないデータセットにラベルを伝播する。
論文 参考訳(メタデータ) (2024-11-05T17:16:56Z) - Co-training for Low Resource Scientific Natural Language Inference [65.37685198688538]
遠隔教師付きラベルに分類器のトレーニング力学に基づいて重みを割り当てる新しいコトレーニング手法を提案する。
予測された信頼度に対する任意のしきい値に基づいてサンプルをフィルタリングするのではなく、重要重みを割り当てることにより、自動ラベル付きデータの使用を最大化する。
提案手法は、遠隔監視ベースラインに対するマクロF1の1.5%の改善と、他の強力なSSLベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-06-20T18:35:47Z) - Self-Training for Sample-Efficient Active Learning for Text Classification with Pre-Trained Language Models [3.546617486894182]
我々は,4つのテキスト分類ベンチマークで評価した,新しい効果的な自己学習戦略であるHASTを紹介する。
その結果、4つのデータセットのうち3つに対して、再現された自己学習手法よりも優れており、以前の実験に匹敵する分類結果が得られることがわかった。
論文 参考訳(メタデータ) (2024-06-13T15:06:11Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - One-bit Supervision for Image Classification: Problem, Solution, and
Beyond [114.95815360508395]
本稿では,ラベルの少ない新しい学習環境である,画像分類のための1ビット監督について述べる。
多段階学習パラダイムを提案し、負ラベル抑圧を半教師付き半教師付き学習アルゴリズムに組み込む。
複数のベンチマークにおいて、提案手法の学習効率は、フルビットの半教師付き監視手法よりも優れている。
論文 参考訳(メタデータ) (2023-11-26T07:39:00Z) - Self-Training: A Survey [5.772546394254112]
半教師付きアルゴリズムは、ラベル付き観測の小さなセットとラベルなし観測の大きなセットから予測関数を学習することを目的としている。
近年,自己学習手法が注目されていることは確かである。
本稿では,バイナリクラスとマルチクラス分類のための自己学習手法と,その変種と関連する2つのアプローチを提案する。
論文 参考訳(メタデータ) (2022-02-24T11:40:44Z) - Learning with Neighbor Consistency for Noisy Labels [69.83857578836769]
特徴空間におけるトレーニング例間の類似性を利用した雑音ラベルから学習する手法を提案する。
合成(CIFAR-10, CIFAR-100)とリアル(mini-WebVision, Clothing1M, mini-ImageNet-Red)の両方のノイズを評価するデータセットの評価を行った。
論文 参考訳(メタデータ) (2022-02-04T15:46:27Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Model-Change Active Learning in Graph-Based Semi-Supervised Learning [5.174023161939957]
モデル変更」アクティブラーニングは、追加ラベルを導入して得られた変化を定量化する
後方分布のラプラス近似を用いて, 取得関数を効率的に近似できる凸損失関数の族を考える。
論文 参考訳(メタデータ) (2021-10-14T21:47:10Z) - Semi-Supervised Learning using Siamese Networks [3.492636597449942]
本研究は,シームズネットワークを用いた類似度関数学習に基づく,半教師付き学習の新しい学習方法を提案する。
ラベルのないインスタンスの信頼性予測は、シームズネットワークを再トレーニングするための真のラベルとして使用される。
ラベルのない予測を改善するため,グローバルな一貫性を備えた局所学習も評価した。
論文 参考訳(メタデータ) (2021-09-02T09:06:35Z) - Grafit: Learning fine-grained image representations with coarse labels [114.17782143848315]
本稿では,学習ラベルの提供するものよりも細かな表現を学習する問題に対処する。
粗いラベルと下層の細粒度潜在空間を併用することにより、カテゴリレベルの検索手法の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2020-11-25T19:06:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。