論文の概要: Bridge the Gap between Supervised and Unsupervised Learning for
Fine-Grained Classification
- arxiv url: http://arxiv.org/abs/2203.00441v1
- Date: Tue, 1 Mar 2022 13:33:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-02 14:58:06.448845
- Title: Bridge the Gap between Supervised and Unsupervised Learning for
Fine-Grained Classification
- Title(参考訳): 細粒度分類のための教師付き学習と教師なし学習のギャップを埋める
- Authors: Jiabao Wang, Yang Li, Xiu-Shen Wei, Hang Li, Zhuang Miao, Rui Zhang
- Abstract要約: 非教師なし視覚分類(FGVC)は、汎用オブジェクト分類(GOC)や人物のリIDよりも難しい。
本稿では,教師付きFGVCと教師なしFGVCのギャップを軽減するために,UFCLと呼ばれるシンプルで効果的で実践的な手法を提案する。
教師なしのFGVC設定では、最先端の結果が得られ、重要な要因と重要なパラメータを解析する。
- 参考スコア(独自算出の注目度): 31.7997891193293
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised learning technology has caught up with or even surpassed
supervised learning technology in general object classification (GOC) and
person re-identification (re-ID). However, it is found that the unsupervised
learning of fine-grained visual classification (FGVC) is more challenging than
GOC and person re-ID. In order to bridge the gap between unsupervised and
supervised learning for FGVC, we investigate the essential factors (including
feature extraction, clustering, and contrastive learning) for the performance
gap between supervised and unsupervised FGVC. Furthermore, we propose a simple,
effective, and practical method, termed as UFCL, to alleviate the gap. Three
key issues are concerned and improved: First, we introduce a robust and
powerful backbone, ResNet50-IBN, which has an ability of domain adaptation when
we transfer ImageNet pre-trained models to FGVC tasks. Next, we propose to
introduce HDBSCAN instead of DBSCAN to do clustering, which can generate better
clusters for adjacent categories with fewer hyper-parameters. Finally, we
propose a weighted feature agent and its updating mechanism to do contrastive
learning by using the pseudo labels with inevitable noise, which can improve
the optimization process of learning the parameters of the network. The
effectiveness of our UFCL is verified on CUB-200-2011, Oxford-Flowers,
Oxford-Pets, Stanford-Dogs, Stanford-Cars and FGVC-Aircraft datasets. Under the
unsupervised FGVC setting, we achieve state-of-the-art results, and analyze the
key factors and the important parameters to provide a practical guidance.
- Abstract(参考訳): 教師なし学習技術は、一般オブジェクト分類(goc)と人物再識別(re-id)において教師なし学習技術に追いつき、あるいは超えている。
しかし、細粒度視覚分類(FGVC)の教師なし学習は、OCや人物のリIDよりも困難であることが判明した。
FGVCにおける教師なし学習と教師なし学習のギャップを埋めるために,教師なしFGVCと教師なしFGVCのパフォーマンスギャップに不可欠な要素(特徴抽出,クラスタリング,コントラスト学習など)について検討する。
さらに,このギャップを軽減するために,UFCLと呼ばれるシンプルで効果的で実践的な手法を提案する。
まず、堅牢で強力なバックボーンであるResNet50-IBNを導入し、ImageNet事前訓練されたモデルをFGVCタスクに転送する際にドメイン適応機能を持つ。
次に,ハイパーパラメータの少ない隣接カテゴリに対して,より優れたクラスタを生成するdbscanではなく,hdbscanを導入することを提案する。
最後に,ネットワークのパラメータを学習する最適化プロセスを改善するために,避けられない雑音を伴う擬似ラベルを用いて,比較学習を行うための重み付け特徴エージェントとその更新機構を提案する。
UFCLの有効性はCUB-200-2011,Oxford-Flowers,Oxford-Pets,Stanford-Dogs,Stanford-Cars,FGVC-Aircraftの各データセットで検証された。
教師なしFGVC設定では,最先端の成果が得られ,重要な要因と重要なパラメータを分析し,実践的なガイダンスを提供する。
関連論文リスト
- Deep Contrastive Graph Learning with Clustering-Oriented Guidance [61.103996105756394]
グラフ畳み込みネットワーク(GCN)は、グラフベースのクラスタリングを改善する上で大きな可能性を秘めている。
モデルはGCNを適用するために初期グラフを事前に推定する。
一般的なデータクラスタリングには,Deep Contrastive Graph Learning (DCGL)モデルが提案されている。
論文 参考訳(メタデータ) (2024-02-25T07:03:37Z) - GraphLearner: Graph Node Clustering with Fully Learnable Augmentation [76.63963385662426]
Contrastive Deep Graph Clustering (CDGC)は、異なるクラスタにノードをグループ化するために、コントラスト学習のパワーを活用する。
我々は、GraphLearnerと呼ばれる、完全学習可能な拡張を備えたグラフノードクラスタリングを提案する。
学習可能な拡張器を導入し、CDGCのための高品質でタスク固有の拡張サンプルを生成する。
論文 参考訳(メタデータ) (2022-12-07T10:19:39Z) - CCLF: A Contrastive-Curiosity-Driven Learning Framework for
Sample-Efficient Reinforcement Learning [56.20123080771364]
我々は、強化学習のためのモデルに依存しないコントラスト駆動学習フレームワーク(CCLF)を開発した。
CCLFは、サンプルの重要性を完全に活用し、自己管理的な学習効率を向上させる。
このアプローチをDeepMind Control Suite、Atari、MiniGridベンチマークで評価する。
論文 参考訳(メタデータ) (2022-05-02T14:42:05Z) - R2-Trans:Fine-Grained Visual Categorization with Redundancy Reduction [21.11038841356125]
細粒度視覚分類(FGVC)は、クラス内の大きな多様性と微妙なクラス間差が主な課題である類似のサブカテゴリを識別することを目的としている。
本稿では,FGVCに対する新たなアプローチを提案する。FGVCは,環境条件における部分的かつ十分な識別情報を同時に利用でき,また,対象物に対するクラストークンにおける冗長情報を圧縮することができる。
論文 参考訳(メタデータ) (2022-04-21T13:35:38Z) - Fine-Grained Adversarial Semi-supervised Learning [25.36956660025102]
FGVC(Fen-Grained Visual Categorization)の性能向上のために、SSL(Semi-Supervised Learning)を活用してトレーニングデータの量を増やす。
6つの最先端の細粒度データセットに対して実験を行うことにより、組み合わせた使用の有効性を実証する。
論文 参考訳(メタデータ) (2021-10-12T09:24:22Z) - Cross-layer Navigation Convolutional Neural Network for Fine-grained
Visual Classification [21.223130735592516]
FGVCは、オブジェクトのサブクラスを同じスーパークラスで分類することを目的としている。
FGVCタスクにとって重要な解決策は、地域からターゲットの識別的微妙な情報を見つけることである。
機能融合のための階層間ナビゲーション畳み込みニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-21T08:38:27Z) - Channel DropBlock: An Improved Regularization Method for Fine-Grained
Visual Classification [58.07257910065007]
既存のアプローチは主に、識別的部分を見つけるための注意機構や、高度にパラメータ化された特徴を弱教師付きで抽出する特徴符号化アプローチを導入することでこの問題に対処している。
本研究では,CDB(Channel DropBlock)と呼ばれる軽量で効果的な正規化手法を提案する。
論文 参考訳(メタデータ) (2021-06-07T09:03:02Z) - Grad-CAM guided channel-spatial attention module for fine-grained visual
classification [16.097903865384698]
ファイングラインド視覚分類(FGVC)のためのGrad-CAMガイドチャネル空間的注意モジュールを提案する。
grad-camを用いて、粗いローカライゼーションマップを生成して注意重みを監督し、制約する。
提案手法は、FGVCタスクにおける最新(SOTA)注意モジュールを上回っている。
論文 参考訳(メタデータ) (2021-01-24T07:28:14Z) - Domain Adaptive Transfer Learning on Visual Attention Aware Data
Augmentation for Fine-grained Visual Categorization [3.5788754401889014]
ベースネットワークモデルに基づく微調整によるドメイン適応型知識伝達を行う。
我々は、注意認識データ拡張技術を用いて、アキュラシーの競争力の向上を示す。
提案手法は,複数の細粒度分類データセットにおける最先端結果を実現する。
論文 参考訳(メタデータ) (2020-10-06T22:47:57Z) - Dual Adversarial Auto-Encoders for Clustering [152.84443014554745]
教師なしクラスタリングのためのDual-AAE(Dual-AAE)を提案する。
Dual-AAEの目的関数に対する変分推論を行うことで,一対のオートエンコーダをトレーニングすることで最適化可能な新たな再構成損失を導出する。
4つのベンチマーク実験により、Dual-AAEは最先端のクラスタリング手法よりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-08-23T13:16:34Z) - Learning to Cluster Faces via Confidence and Connectivity Estimation [136.5291151775236]
重複する部分グラフを多数必要とせず,完全に学習可能なクラスタリングフレームワークを提案する。
提案手法はクラスタリングの精度を大幅に向上させ,その上で訓練した認識モデルの性能を向上させるが,既存の教師付き手法に比べて桁違いに効率的である。
論文 参考訳(メタデータ) (2020-04-01T13:39:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。