論文の概要: Unsupervised Few-shot Learning via Deep Laplacian Eigenmaps
- arxiv url: http://arxiv.org/abs/2210.03595v1
- Date: Fri, 7 Oct 2022 14:53:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 14:34:29.244627
- Title: Unsupervised Few-shot Learning via Deep Laplacian Eigenmaps
- Title(参考訳): 深層ラプラシア固有写像による教師なしショット学習
- Authors: Kuilin Chen, Chi-Guhn Lee
- Abstract要約: 深層ラプラシア固有写像を用いた教師なし数ショット学習法を提案する。
本手法は,類似したサンプルをグループ化することで,ラベルのないデータから表現を学習する。
我々は、教師なし学習において、ラプラシアン固有写像が崩壊した表現をいかに避けるかを解析的に示す。
- 参考スコア(独自算出の注目度): 13.6555672824229
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning a new task from a handful of examples remains an open challenge in
machine learning. Despite the recent progress in few-shot learning, most
methods rely on supervised pretraining or meta-learning on labeled
meta-training data and cannot be applied to the case where the pretraining data
is unlabeled. In this study, we present an unsupervised few-shot learning
method via deep Laplacian eigenmaps. Our method learns representation from
unlabeled data by grouping similar samples together and can be intuitively
interpreted by random walks on augmented training data. We analytically show
how deep Laplacian eigenmaps avoid collapsed representation in unsupervised
learning without explicit comparison between positive and negative samples. The
proposed method significantly closes the performance gap between supervised and
unsupervised few-shot learning. Our method also achieves comparable performance
to current state-of-the-art self-supervised learning methods under linear
evaluation protocol.
- Abstract(参考訳): 一握りの例から新しいタスクを学ぶことは、機械学習において未解決の課題である。
近年のショットラーニングの進歩にもかかわらず、ほとんどの手法はラベル付きメタトレーニングデータに基づく教師付き事前学習やメタ学習に依存しており、事前学習データがラベル付けされていない場合に適用できない。
本研究では,deep laplacian eigenmapsを用いた教師なし少数ショット学習法を提案する。
本手法は,類似したサンプルをグループ化することでラベルなしデータから表現を学習し,拡張学習データ上でランダムウォークによって直感的に解釈できる。
正と負のサンプルを明示的に比較することなく,教師なし学習におけるラプラシアン固有写像の崩壊回避効果を解析的に示す。
提案手法は,教師なし学習と教師なし学習との性能ギャップを著しく解消する。
また,本手法は,線形評価プロトコル下での最先端の自己教師付き学習手法に匹敵する性能を実現する。
関連論文リスト
- Variational Self-Supervised Contrastive Learning Using Beta Divergence [0.0]
本稿では,データノイズに対して頑健な自己教師付き学習手法を提案する。
顔理解領域における多ラベルデータセットを用いた線形評価と微調整シナリオを含む厳密な実験により,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-09-05T17:21:38Z) - Adaptive Negative Evidential Deep Learning for Open-set Semi-supervised Learning [69.81438976273866]
オープンセット半教師付き学習(Open-set SSL)は、ラベル付きデータ(inliers)で観測されない新しいカテゴリ(outliers)を含むラベル付きデータとテストデータを含む、より実践的なシナリオである。
本研究では,様々な不確かさを定量化するための外乱検出器として顕在的深層学習(EDL)を導入し,自己学習と推論のための異なる不確実性指標を設計する。
Inlierとoutlierの両方を含むラベルなしデータセットに適合するように、新しい適応的負の最適化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-21T09:07:15Z) - An Embarrassingly Simple Approach to Semi-Supervised Few-Shot Learning [58.59343434538218]
間接学習の観点から、ラベルなしデータの正負の擬似ラベルを正確に予測するための、単純だが非常に効果的な手法を提案する。
私たちのアプローチは、オフザシェルフ操作のみを使用することで、ほんの数行のコードで実装できます。
論文 参考訳(メタデータ) (2022-09-28T02:11:34Z) - Boundary-aware Information Maximization for Self-supervised Medical
Image Segmentation [13.828282295918628]
コントラスト学習の欠点を回避するための,教師なし事前学習フレームワークを提案する。
2つのベンチマーク医用セグメンテーションデータセットによる実験結果から,アノテート画像が少ない場合の有効性が明らかになった。
論文 参考訳(メタデータ) (2022-02-04T20:18:00Z) - STDP enhances learning by backpropagation in a spiking neural network [0.0]
提案手法は,少量のラベル付きデータを使用する場合,ラベル付けを加味せずに精度を向上する。
イベント駆動システムのための学習手法を提案することができる。
論文 参考訳(メタデータ) (2021-02-21T06:55:02Z) - Unsupervised Noisy Tracklet Person Re-identification [100.85530419892333]
本稿では,非照合トラックレットデータから識別的人物再識別モデルを訓練できる選択的トラックレット学習(STL)手法を提案する。
これにより、カメラビュー全体で人物の画像/トラックレットの真のマッチングペアを完全にラベル付けする面倒でコストのかかるプロセスが回避されます。
提案手法は生トラックレットの任意のノイズデータに対して特に頑健であるため,制約のない追跡データから識別モデル学習にスケーラブルである。
論文 参考訳(メタデータ) (2021-01-16T07:31:00Z) - Take More Positives: An Empirical Study of Contrastive Learing in
Unsupervised Person Re-Identification [43.11532800327356]
Unsupervised Person re-IDは、監視されたメソッドのパフォーマンスギャップを埋めることを目指している。
成功の理由として,ラベル生成機構だけでなく,探索されていない設計もあげられる。
教師なし再IDのためのメモリバックのない対比学習法を提案する。
論文 参考訳(メタデータ) (2021-01-12T08:06:11Z) - A Sober Look at the Unsupervised Learning of Disentangled
Representations and their Evaluation [63.042651834453544]
モデルとデータの両方に帰納的バイアスを伴わずに,非教師なしの非教師付き表現学習は不可能であることを示す。
異なる手法は、対応する損失によって「強化」された特性を効果的に強制するが、よく見分けられたモデルは監督なしでは特定できないように見える。
以上の結果から,遠絡学習における今後の研究は,帰納的バイアスと(単純に)監督の役割を明確化すべきであることが示唆された。
論文 参考訳(メタデータ) (2020-10-27T10:17:15Z) - Contrastive Learning with Hard Negative Samples [80.12117639845678]
我々は, 厳密な陰性サンプルを選択するために, 教師なしサンプリング手法を新たに開発する。
このサンプリングの制限ケースは、各クラスをしっかりとクラスタ化し、可能な限り異なるクラスを遠くにプッシュする表現をもたらす。
提案手法は、複数のモードをまたいだダウンストリーム性能を改善し、実装するコード行数が少なく、計算オーバーヘッドを伴わない。
論文 参考訳(メタデータ) (2020-10-09T14:18:53Z) - Deep Semi-supervised Knowledge Distillation for Overlapping Cervical
Cell Instance Segmentation [54.49894381464853]
本稿では, ラベル付きデータとラベルなしデータの両方を, 知識蒸留による精度向上に活用することを提案する。
摂動に敏感なサンプルマイニングを用いたマスク誘導型平均教師フレームワークを提案する。
実験の結果,ラベル付きデータのみから学習した教師付き手法と比較して,提案手法は性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-21T13:27:09Z) - Self-Supervised Prototypical Transfer Learning for Few-Shot
Classification [11.96734018295146]
自己教師ありトランスファー学習アプローチ ProtoTransferは、数ショットタスクにおいて、最先端の教師なしメタラーニング手法より優れている。
ドメインシフトを用いた数ショットの実験では、我々のアプローチは教師付きメソッドに匹敵する性能を持つが、ラベルの桁数は桁違いである。
論文 参考訳(メタデータ) (2020-06-19T19:00:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。