論文の概要: Self-Supervised Learning for Fine-Grained Image Classification
- arxiv url: http://arxiv.org/abs/2107.13973v1
- Date: Thu, 29 Jul 2021 14:01:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-30 13:28:59.223421
- Title: Self-Supervised Learning for Fine-Grained Image Classification
- Title(参考訳): 微細画像分類のための自己教師付き学習
- Authors: Farha Al Breiki, Muhammad Ridzuan, Rushali Grandhe
- Abstract要約: きめ細かいデータセットは通常、分類プロセスを支援するために、クラスラベルとともにバウンディングボックスアノテーションを提供する。
一方、自己教師付き学習では、自由に利用可能なデータを利用してラベルとして機能する監視信号を生成する。
我々の考えは、モデルが微細な画像クラスの有用な表現を学習できるように、自己スーパービジョンを活用することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fine-grained image classification involves identifying different
subcategories of a class which possess very subtle discriminatory features.
Fine-grained datasets usually provide bounding box annotations along with class
labels to aid the process of classification. However, building large scale
datasets with such annotations is a mammoth task. Moreover, this extensive
annotation is time-consuming and often requires expertise, which is a huge
bottleneck in building large datasets. On the other hand, self-supervised
learning (SSL) exploits the freely available data to generate supervisory
signals which act as labels. The features learnt by performing some pretext
tasks on huge unlabelled data proves to be very helpful for multiple downstream
tasks.
Our idea is to leverage self-supervision such that the model learns useful
representations of fine-grained image classes. We experimented with 3 kinds of
models: Jigsaw solving as pretext task, adversarial learning (SRGAN) and
contrastive learning based (SimCLR) model. The learned features are used for
downstream tasks such as fine-grained image classification. Our code is
available at
http://github.com/rush2406/Self-Supervised-Learning-for-Fine-grained-Image-Classification
- Abstract(参考訳): きめ細かい画像分類は、非常に微妙な識別特徴を持つクラスの異なるサブカテゴリを特定することを含む。
きめ細かいデータセットは通常、分類プロセスに役立つクラスラベルとともにバウンディングボックスアノテーションを提供する。
しかし、このようなアノテーションを使った大規模なデータセットの構築は、マンモスタスクです。
さらに、この広範なアノテーションは時間がかかり、しばしば専門知識を必要とします。
一方、自己教師付き学習(SSL)は、自由に利用可能なデータを利用してラベルとして機能する監視信号を生成する。
巨大なラベルのないデータでプリテキストタスクを実行することで学習する機能は、複数のダウンストリームタスクに非常に有用であることが証明される。
我々の考えは、モデルが微細な画像クラスの有用な表現を学習できるように、自己スーパービジョンを活用することである。
我々は3種類のモデルを実験した: Jigsaw をプレテキストタスクとして、敵学習(SRGAN)と対照的学習ベース(SimCLR)モデルである。
学習した機能は、きめ細かい画像分類などの下流タスクに使用される。
私たちのコードはhttp://github.com/rush2406/Self-Supervised-Learning-for-Fine-fine- Image-Classificationで利用可能です。
関連論文リスト
- A Self Supervised StyleGAN for Image Annotation and Classification with
Extremely Limited Labels [35.43549147657739]
画像アノテーションと分類のための自己教師型アプローチであるSS-StyleGANを提案する。
提案手法は,50と10の小さなラベル付きデータセットを用いて,強力な分類結果が得られることを示す。
論文 参考訳(メタデータ) (2023-12-26T09:46:50Z) - Exploring Fine-Grained Representation and Recomposition for Cloth-Changing Person Re-Identification [78.52704557647438]
補助的なアノテーションやデータなしに両方の制約に対処するために,新しいFIne-fine Representation and Recomposition (FIRe$2$) フレームワークを提案する。
FIRe$2$は、広く使われている5つのRe-IDベンチマークで最先端のパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2023-08-21T12:59:48Z) - Mixture of Self-Supervised Learning [2.191505742658975]
自己教師型学習は、特定のタスクに適用される前にモデル上でトレーニングされるプレテキストタスクを使用することで機能する。
従来の研究では、プリテキストタスクとして1つのタイプの変換しか使用されていなかった。
これにより、複数のプリテキストタスクが使用されているかどうか、すべてのプリテキストタスクを組み合わせるためにゲーティングネットワークを使用するかどうか、という疑問が持ち上がる。
論文 参考訳(メタデータ) (2023-07-27T14:38:32Z) - MoBYv2AL: Self-supervised Active Learning for Image Classification [57.4372176671293]
画像分類のための自己教師型アクティブラーニングフレームワークであるMoBYv2ALを提案する。
私たちの貢献は、最も成功した自己教師付き学習アルゴリズムであるMoBYをALパイプラインに持ち上げることです。
近年のAL法と比較すると,最先端の結果が得られている。
論文 参考訳(メタデータ) (2023-01-04T10:52:02Z) - Multi-label Iterated Learning for Image Classification with Label
Ambiguity [3.5736176624479654]
単一ラベルからの多ラベル学習の帰納バイアスを組み込むために,多ラベル反復学習(MILe)を提案する。
MILeは、バイナリ予測を伝搬することにより、画像のマルチラベル記述を構築する、シンプルだが効果的な手順である。
我々は,MILeがラベルノイズを効果的に低減し,WebVisionのような実世界の大規模ノイズデータに対して最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2021-11-23T22:10:00Z) - Few-Shot Learning for Image Classification of Common Flora [0.0]
MAML(Model-Agnostic Meta Learning)を用いた画像分類のためのメタラーニング分野の最先端の研究と、さまざまな最先端のトランスファーラーニングウェイトとアーキテクチャをテストした結果を紹介します。
その結果、データセットが十分に大きい場合、両方のプラクティスが十分なパフォーマンスを提供しますが、十分なパフォーマンスを維持するためにデータスパーシャビリティが導入されると、どちらも苦労しています。
論文 参考訳(メタデータ) (2021-05-07T03:54:51Z) - Towards Good Practices for Efficiently Annotating Large-Scale Image
Classification Datasets [90.61266099147053]
多数の画像の分類ラベルを収集するための効率的なアノテーション戦略を検討する。
人間のラベリング作業を最小化するための修正とベストプラクティスを提案します。
ImageNet100の125kイメージサブセットのシミュレーション実験では、平均で0.35のアノテーションで80%のトップ-1の精度でアノテートできることが示されている。
論文 参考訳(メタデータ) (2021-04-26T16:29:32Z) - Grafit: Learning fine-grained image representations with coarse labels [114.17782143848315]
本稿では,学習ラベルの提供するものよりも細かな表現を学習する問題に対処する。
粗いラベルと下層の細粒度潜在空間を併用することにより、カテゴリレベルの検索手法の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2020-11-25T19:06:26Z) - Attention-Aware Noisy Label Learning for Image Classification [97.26664962498887]
大規模ラベル付きサンプルで学習した深層畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンにおいて顕著な進歩を遂げている。
大量のラベル付きビジュアルデータを取得する最も安価な方法は、Flickrのようなユーザーが提供するラベルでウェブサイトからクロールすることである。
本稿では,潜在的なラベルノイズのあるデータセットに基づいて学習したネットワークの識別能力を向上させるために,注目に敏感なラベル学習手法を提案する。
論文 参考訳(メタデータ) (2020-09-30T15:45:36Z) - SCAN: Learning to Classify Images without Labels [73.69513783788622]
機能学習とクラスタリングを分離する2段階のアプローチを提唱する。
表現学習からの自己教師型タスクを用いて意味論的意味のある特徴を得る。
我々は、ImageNet上で有望な結果を得、低データ体制下では、いくつかの半教師付き学習方法より優れています。
論文 参考訳(メタデータ) (2020-05-25T18:12:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。