論文の概要: Supervised Stochastic Neighbor Embedding Using Contrastive Learning
- arxiv url: http://arxiv.org/abs/2309.08077v1
- Date: Fri, 15 Sep 2023 00:26:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 16:24:14.880369
- Title: Supervised Stochastic Neighbor Embedding Using Contrastive Learning
- Title(参考訳): コントラスト学習を用いた確率的隣人埋め込み
- Authors: Yi Zhang
- Abstract要約: 同じクラスに属するサンプルのクラスタは、低次元の埋め込み空間にまとめられる。
我々は、自己教師付きコントラスト的アプローチを完全教師付き設定に拡張し、ラベル情報を効果的に活用する。
- 参考スコア(独自算出の注目度): 4.560284382063488
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stochastic neighbor embedding (SNE) methods $t$-SNE, UMAP are two most
popular dimensionality reduction methods for data visualization. Contrastive
learning, especially self-supervised contrastive learning (SSCL), has showed
great success in embedding features from unlabeled data. The conceptual
connection between SNE and SSCL has been exploited. In this work, within the
scope of preserving neighboring information of a dataset, we extend the
self-supervised contrastive approach to the fully-supervised setting, allowing
us to effectively leverage label information. Clusters of samples belonging to
the same class are pulled together in low-dimensional embedding space, while
simultaneously pushing apart clusters of samples from different classes.
- Abstract(参考訳): 確率的隣接埋め込み (SNE) 法$t$-SNE, UMAP はデータ可視化のための2つの最も一般的な次元削減法である。
コントラスト学習、特に自己教師付きコントラスト学習(SSCL)は、ラベルのないデータから特徴を埋め込むことで大きな成功を収めている。
SNEとSSCLのコンセプト接続が活用されている。
本研究では,データセットの隣接情報保存の範囲内で,自己教師付きコントラストアプローチを完全教師付き設定に拡張し,ラベル情報を効果的に活用する。
同じクラスに属するサンプルのクラスタは、異なるクラスからサンプルのクラスタを同時にプッシュしながら、低次元の埋め込み空間にまとめられる。
関連論文リスト
- Collaborative Feature-Logits Contrastive Learning for Open-Set Semi-Supervised Object Detection [75.02249869573994]
オープンセットのシナリオでは、ラベルなしデータセットには、イン・ディストリビューション(ID)クラスとアウト・オブ・ディストリビューション(OOD)クラスの両方が含まれている。
このような設定で半教師付き検出器を適用すると、OODクラスをIDクラスとして誤分類する可能性がある。
我々は、CFL-Detector(Collaborative Feature-Logits Detector)と呼ばれるシンプルで効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-11-20T02:57:35Z) - Linking data separation, visual separation, and classifier performance
using pseudo-labeling by contrastive learning [125.99533416395765]
最終分類器の性能は、潜在空間に存在するデータ分離と、射影に存在する視覚的分離に依存すると論じる。
本研究は,ヒト腸管寄生虫の5つの現実的課題の画像データセットを1%の教師付きサンプルで分類し,その結果を実証する。
論文 参考訳(メタデータ) (2023-02-06T10:01:38Z) - Hyperspherical Consistency Regularization [45.00073340936437]
我々は,自己教師あり学習と教師あり学習の関係について検討し,自己教師あり学習がデータ効率のよい深層学習にどのように役立つかを検討する。
超球面整合正則化(HCR)を提案し,特徴依存情報を用いた分類器の正規化を行い,ラベルからのバイアスを回避する。
論文 参考訳(メタデータ) (2022-06-02T02:41:13Z) - Your Contrastive Learning Is Secretly Doing Stochastic Neighbor
Embedding [12.421540007814937]
自己教師付きコントラスト学習(SSCL)は、ラベルのないデータから強力な特徴を抽出することに成功した。
我々はSSCLの理論的理解に寄与し、その古典的なデータ可視化手法である隣接埋め込みとの関係を明らかにする。
ドメインに依存しない拡張、暗黙のバイアス、学習特徴の堅牢性に関する新しい分析結果を提供する。
論文 参考訳(メタデータ) (2022-05-30T02:39:29Z) - Leveraging Ensembles and Self-Supervised Learning for Fully-Unsupervised
Person Re-Identification and Text Authorship Attribution [77.85461690214551]
完全ラベル付きデータからの学習は、Person Re-IdentificationやText Authorship Attributionなどのマルチメディアフォレスト問題において困難である。
近年の自己教師型学習法は,基礎となるクラスに意味的差異が有る場合に,完全ラベル付きデータを扱う際に有効であることが示されている。
本研究では,異なるクラスからのサンプルが顕著に多様性を持っていない場合でも,ラベルのないデータから学習できるようにすることにより,個人再認識とテキストオーサシップの属性に対処する戦略を提案する。
論文 参考訳(メタデータ) (2022-02-07T13:08:11Z) - Cluster Analysis with Deep Embeddings and Contrastive Learning [0.0]
本研究は,深層埋め込みから画像クラスタリングを行うための新しいフレームワークを提案する。
提案手法では,クラスタセンターの表現をエンドツーエンドで学習し,予測する。
我々のフレームワークは広く受け入れられているクラスタリング手法と同等に動作し、CIFAR-10データセット上で最先端のコントラスト学習手法より優れています。
論文 参考訳(メタデータ) (2021-09-26T22:18:15Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z) - Stochastic Cluster Embedding [14.485496311015398]
Neighbor Embedding (NE)は、データ項目間のペアの類似性を維持することを目的としている。
Neighbor Embedding (SNE)のようなNEメソッドは、クラスタなどの大規模パターンを隠蔽する可能性がある。
隣り合う埋め込みに基づく新しいクラスタ可視化手法を提案する。
論文 参考訳(メタデータ) (2021-08-18T07:07:28Z) - Trash to Treasure: Harvesting OOD Data with Cross-Modal Matching for
Open-Set Semi-Supervised Learning [101.28281124670647]
オープンセット半教師付き学習(Open-set SSL)では、ラベルなしデータにOOD(Out-of-distribution)サンプルを含む、難しいが実用的なシナリオを調査する。
我々は、OODデータの存在を効果的に活用し、特徴学習を増強する新しいトレーニングメカニズムを提案する。
我々のアプローチは、オープンセットSSLのパフォーマンスを大幅に向上させ、最先端技術よりも大きなマージンで性能を向上します。
論文 参考訳(メタデータ) (2021-08-12T09:14:44Z) - ORDisCo: Effective and Efficient Usage of Incremental Unlabeled Data for
Semi-supervised Continual Learning [52.831894583501395]
連続学習は、入力されたデータが完全にラベル付けされていると仮定し、実際のアプリケーションでは適用できないかもしれない。
我々は、条件付き生成逆数ネットワーク(GAN)を用いた分類器を相互に学習するために、識別器整合(ORDisCo)を用いたディープオンライン再生を提案する。
ORDisCo が SSCL の様々な半教師付き学習ベンチマークデータセットで大幅なパフォーマンス向上を達成していることを示します。
論文 参考訳(メタデータ) (2021-01-02T09:04:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。