論文の概要: Contrastive Learning based Hybrid Networks for Long-Tailed Image
Classification
- arxiv url: http://arxiv.org/abs/2103.14267v1
- Date: Fri, 26 Mar 2021 05:22:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-29 12:44:50.779320
- Title: Contrastive Learning based Hybrid Networks for Long-Tailed Image
Classification
- Title(参考訳): ロングテール画像分類のためのコントラスト学習に基づくハイブリッドネットワーク
- Authors: Peng Wang, Kai Han, Xiu-Shen Wei, Lei Zhang, Lei Wang
- Abstract要約: 画像表現の教師付きコントラスト損失と、分類器を学習するためのクロスエントロピー損失からなる新しいハイブリッドネットワーク構造を提案する。
3つの長尾分類データセットに関する実験は、長尾分類における比較学習に基づくハイブリッドネットワークの提案の利点を示している。
- 参考スコア(独自算出の注目度): 31.647639786095993
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Learning discriminative image representations plays a vital role in
long-tailed image classification because it can ease the classifier learning in
imbalanced cases. Given the promising performance contrastive learning has
shown recently in representation learning, in this work, we explore effective
supervised contrastive learning strategies and tailor them to learn better
image representations from imbalanced data in order to boost the classification
accuracy thereon. Specifically, we propose a novel hybrid network structure
being composed of a supervised contrastive loss to learn image representations
and a cross-entropy loss to learn classifiers, where the learning is
progressively transited from feature learning to the classifier learning to
embody the idea that better features make better classifiers. We explore two
variants of contrastive loss for feature learning, which vary in the forms but
share a common idea of pulling the samples from the same class together in the
normalized embedding space and pushing the samples from different classes
apart. One of them is the recently proposed supervised contrastive (SC) loss,
which is designed on top of the state-of-the-art unsupervised contrastive loss
by incorporating positive samples from the same class. The other is a
prototypical supervised contrastive (PSC) learning strategy which addresses the
intensive memory consumption in standard SC loss and thus shows more promise
under limited memory budget. Extensive experiments on three long-tailed
classification datasets demonstrate the advantage of the proposed contrastive
learning based hybrid networks in long-tailed classification.
- Abstract(参考訳): 識別的画像表現の学習は、不均衡な場合における分類子学習を容易にするため、ロングテール画像分類において重要な役割を果たす。
本研究は,近年,表現学習において有望なパフォーマンスコントラスト学習が示されていることを踏まえ,効果的な教師付きコントラスト学習戦略を探求し,不均衡なデータからより良い画像表現を学習して,その分類精度を高める。
具体的には、画像表現を学習するための教師付きコントラスト損失と、分類器を学習するためのクロスエントロピー損失からなる、新しいハイブリッドネットワーク構造を提案する。
形態によって異なるが、正規化された埋め込み空間において同一クラスからサンプルをまとめて抽出し、異なるクラスからサンプルを分離するという共通の考えを共有する。
そのうちの1つは最近提案された教師付きコントラスト損失(SC)であり、これは同じクラスの正のサンプルを組み込むことで、最先端の教師なしコントラスト損失の上に設計されている。
もうひとつは、標準のSC損失における集中的メモリ消費に対処し、限られたメモリ予算の下でより有望な、プロトタイプ型教師付きコントラクティブ(PSC)学習戦略である。
3つの長い尾の分類データセットに対する大規模な実験は、長い尾の分類における対照的な学習に基づくハイブリッドネットワークの利点を示す。
関連論文リスト
- Bayesian Learning-driven Prototypical Contrastive Loss for Class-Incremental Learning [42.14439854721613]
本稿では,クラス増分学習シナリオに特化して,ベイズ学習駆動型コントラスト損失(BLCL)を持つプロトタイプネットワークを提案する。
提案手法は,ベイズ学習手法を用いて,クロスエントロピーとコントラスト損失関数のバランスを動的に適用する。
論文 参考訳(メタデータ) (2024-05-17T19:49:02Z) - LeOCLR: Leveraging Original Images for Contrastive Learning of Visual Representations [4.680881326162484]
画像分類やオブジェクト検出などの下流タスクにおける教師あり学習よりも優れている。
対照的な学習における一般的な強化手法は、ランダムな収穫とそれに続くリサイズである。
本稿では,新しいインスタンス識別手法と適応型損失関数を用いたフレームワークであるLeOCLRを紹介する。
論文 参考訳(メタデータ) (2024-03-11T15:33:32Z) - Unsupervised Feature Clustering Improves Contrastive Representation
Learning for Medical Image Segmentation [18.75543045234889]
自己監督型インスタンス識別は、特徴表現を学習し、限られた医用画像アノテーションに対処する効果的なコントラスト的前提課題である。
本稿では,教師なし特徴クラスタリングを用いた自己教師付きコントラスト学習手法を提案する。
本手法は,これらの課題に対して,最先端の自己監督型コントラスト技術より優れる。
論文 参考訳(メタデータ) (2022-11-15T22:54:29Z) - Joint Debiased Representation and Image Clustering Learning with
Self-Supervision [3.1806743741013657]
我々は,新しい共同クラスタリングとコントラスト学習フレームワークを開発した。
不均衡なデータセットの下位クラスタ化を避けるために、デバイアスド・コントラストの損失に適応する。
論文 参考訳(メタデータ) (2022-09-14T21:23:41Z) - Weakly Supervised Contrastive Learning [68.47096022526927]
この問題に対処するために,弱教師付きコントラスト学習フレームワーク(WCL)を導入する。
WCLはResNet50を使用して65%と72%のImageNet Top-1の精度を実現している。
論文 参考訳(メタデータ) (2021-10-10T12:03:52Z) - Improving Music Performance Assessment with Contrastive Learning [78.8942067357231]
本研究では,既存のMPAシステムを改善するための潜在的手法として,コントラスト学習について検討する。
畳み込みニューラルネットワークに適用された回帰タスクに適した重み付きコントラスト損失を導入する。
この結果から,MPA回帰タスクにおいて,コントラッシブ・ベースの手法がSoTA性能に適合し,超越できることが示唆された。
論文 参考訳(メタデータ) (2021-08-03T19:24:25Z) - Solving Inefficiency of Self-supervised Representation Learning [87.30876679780532]
既存のコントラスト学習法は、非常に低い学習効率に苦しむ。
アンダークラスタリングとオーバークラスタリングの問題は、学習効率の大きな障害である。
中央三重項損失を用いた新しい自己監督学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-18T07:47:10Z) - Unleashing the Power of Contrastive Self-Supervised Visual Models via
Contrast-Regularized Fine-Tuning [94.35586521144117]
コントラスト学習を微調整に適用することでさらにメリットが得られるか検討する。
本研究では,コントラスト正規化調律(core-tuning)を提案する。
論文 参考訳(メタデータ) (2021-02-12T16:31:24Z) - Fully Unsupervised Person Re-identification viaSelective Contrastive
Learning [58.5284246878277]
人物再識別(ReID)は、様々なカメラが捉えた画像の中から同一人物を検索することを目的としている。
教師なし特徴学習のための新しい選択型コントラスト学習フレームワークを提案する。
その結果,教師なしのReIDにおける手法の優位性について,最先端技術と比較した。
論文 参考訳(メタデータ) (2020-10-15T09:09:23Z) - Hard Negative Mixing for Contrastive Learning [29.91220669060252]
我々は、コントラスト学習の重要な側面、すなわちハードネガティブの影響は、これまで無視されてきたと論じている。
計算オーバーヘッドを最小限に抑えながら、オンザフライで計算できる機能レベルでのハードネガティブな混合戦略を提案する。
論文 参考訳(メタデータ) (2020-10-02T14:34:58Z) - ReMarNet: Conjoint Relation and Margin Learning for Small-Sample Image
Classification [49.87503122462432]
ReMarNet(Relation-and-Margin Learning Network)と呼ばれるニューラルネットワークを導入する。
本手法は,上記2つの分類機構の双方において優れた性能を発揮する特徴を学習するために,異なるバックボーンの2つのネットワークを組み立てる。
4つの画像データセットを用いた実験により,本手法はラベル付きサンプルの小さな集合から識別的特徴を学習するのに有効であることが示された。
論文 参考訳(メタデータ) (2020-06-27T13:50:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。