論文の概要: Unsupervised Image Classification for Deep Representation Learning
- arxiv url: http://arxiv.org/abs/2006.11480v2
- Date: Thu, 20 Aug 2020 06:42:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 22:57:11.660467
- Title: Unsupervised Image Classification for Deep Representation Learning
- Title(参考訳): 深部表現学習のための教師なし画像分類
- Authors: Weijie Chen and Shiliang Pu and Di Xie and Shicai Yang and Yilu Guo
and Luojun Lin
- Abstract要約: 埋め込みクラスタリングを使わずに、教師なしのイメージ分類フレームワークを提案する。
提案手法の有効性を証明するために,ImageNetデータセットの実験を行った。
- 参考スコア(独自算出の注目度): 42.09716669386924
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep clustering against self-supervised learning is a very important and
promising direction for unsupervised visual representation learning since it
requires little domain knowledge to design pretext tasks. However, the key
component, embedding clustering, limits its extension to the extremely
large-scale dataset due to its prerequisite to save the global latent embedding
of the entire dataset. In this work, we aim to make this framework more simple
and elegant without performance decline. We propose an unsupervised image
classification framework without using embedding clustering, which is very
similar to standard supervised training manner. For detailed interpretation, we
further analyze its relation with deep clustering and contrastive learning.
Extensive experiments on ImageNet dataset have been conducted to prove the
effectiveness of our method. Furthermore, the experiments on transfer learning
benchmarks have verified its generalization to other downstream tasks,
including multi-label image classification, object detection, semantic
segmentation and few-shot image classification.
- Abstract(参考訳): 自己教師あり学習に対する深いクラスタリングは、教師なしの視覚的表現学習にとって非常に重要かつ有望な方向性である。
しかしながら、クラスタ化の主要なコンポーネントであるembeding clusteringは、データセット全体のグローバル潜在埋め込みを節約する必要性から、非常に大規模なデータセットへの拡張を制限している。
この作業では、パフォーマンスを低下させることなく、このフレームワークをよりシンプルでエレガントにすることを目指しています。
本研究では,標準教師あり訓練法と非常によく似た組込みクラスタリングを用いず,教師なし画像分類フレームワークを提案する。
詳細な解釈のために,深層クラスタリングとコントラスト学習との関係をさらに分析する。
本手法の有効性を証明するため,imagenetデータセットの広範な実験を行った。
さらに,トランスファーラーニングベンチマークを用いた実験により,複数ラベル画像分類,オブジェクト検出,意味セグメンテーション,少数ショット画像分類などの下流タスクへの一般化が確認された。
関連論文リスト
- Clustering-friendly Representation Learning for Enhancing Salient Features [2.184775414778289]
本稿では、下流タスクとして教師なし画像クラスタリングに焦点を当てる。
クラスタリングフレンドリーなコントラスト学習手法を拡張し,コントラスト分析手法を取り入れた。
すべてのデータセットに対して,従来のコントラスト解析やディープクラスタリング手法と比較して,高いクラスタリングスコアを達成する。
論文 参考訳(メタデータ) (2024-08-09T06:27:19Z) - Investigating Self-Supervised Methods for Label-Efficient Learning [27.029542823306866]
低撮影能力のためのコントラスト学習、クラスタリング、マスク付き画像モデリングなど、さまざまな自己教師付きプレテキストタスクについて検討する。
マスク画像モデリングとクラスタリングの両方をプリテキストタスクとして含むフレームワークを導入する。
実規模データセット上でモデルをテストした場合,マルチクラス分類,マルチラベル分類,セマンティックセマンティックセグメンテーションにおける性能向上を示す。
論文 参考訳(メタデータ) (2024-06-25T10:56:03Z) - A Lightweight Clustering Framework for Unsupervised Semantic
Segmentation [28.907274978550493]
教師なしセマンティックセグメンテーションは、注釈付きデータを用いることなく、画像の各ピクセルを対応するクラスに分類することを目的としている。
教師なしセマンティックセグメンテーションのための軽量クラスタリングフレームワークを提案する。
本フレームワークは,PASCAL VOCおよびMS COCOデータセットの最先端結果を実現する。
論文 参考訳(メタデータ) (2023-11-30T15:33:42Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Self-Supervised Visual Representation Learning with Semantic Grouping [50.14703605659837]
我々は、未ラベルのシーン中心のデータから視覚表現を学習する問題に取り組む。
本研究では,データ駆動型セマンティックスロット,すなわちSlotConによる協調型セマンティックグルーピングと表現学習のためのコントラスト学習を提案する。
論文 参考訳(メタデータ) (2022-05-30T17:50:59Z) - A Pixel-Level Meta-Learner for Weakly Supervised Few-Shot Semantic
Segmentation [40.27705176115985]
Few-shotのセマンティックセマンティックセグメンテーションは、興味のある新しいクラスのために、地上の真実のピクセルレベルのラベルを持つ少数の画像しか利用できない学習タスクに対処する。
限られたデータとその意味ラベルから擬似画素レベルのセグメンテーションマスクを予測するメタラーニングフレームワークを提案する。
提案する学習モデルは,画素レベルのメタラーナーとみなすことができる。
論文 参考訳(メタデータ) (2021-11-02T08:28:11Z) - Clustering by Maximizing Mutual Information Across Views [62.21716612888669]
本稿では,共同表現学習とクラスタリングを組み合わせた画像クラスタリングのための新しいフレームワークを提案する。
提案手法は,様々な画像データセットにおける最先端の単一ステージクラスタリング手法よりも優れていた。
論文 参考訳(メタデータ) (2021-07-24T15:36:49Z) - Large-scale Unsupervised Semantic Segmentation [163.3568726730319]
本稿では, 大規模無教師付きセマンティックセマンティックセグメンテーション (LUSS) の新たな課題を提案する。
ImageNetデータセットに基づいて、120万のトレーニング画像と40万の高品質なセマンティックセグメンテーションアノテーションを用いた画像Net-Sデータセットを提案する。
論文 参考訳(メタデータ) (2021-06-06T15:02:11Z) - Unifying Remote Sensing Image Retrieval and Classification with Robust
Fine-tuning [3.6526118822907594]
新しい大規模トレーニングおよびテストデータセットであるSF300で、リモートセンシングイメージの検索と分類を統一することを目指しています。
本研究では,ImageNetの事前学習ベースラインと比較して,9つのデータセットの検索性能と分類性能を体系的に向上させることを示す。
論文 参考訳(メタデータ) (2021-02-26T11:01:30Z) - Mining Cross-Image Semantics for Weakly Supervised Semantic Segmentation [128.03739769844736]
2つのニューラルコアテンションを分類器に組み込んで、画像間のセマンティックな類似点と相違点をキャプチャする。
オブジェクトパターン学習の強化に加えて、コアテンションは他の関連する画像からのコンテキストを活用して、ローカライズマップの推論を改善することができる。
提案アルゴリズムは,これらすべての設定に対して新たな最先端性を設定し,その有効性と一般化性を示す。
論文 参考訳(メタデータ) (2020-07-03T21:53:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。