論文の概要: CoNe: Contrast Your Neighbours for Supervised Image Classification
- arxiv url: http://arxiv.org/abs/2308.10761v1
- Date: Mon, 21 Aug 2023 14:49:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 13:10:17.610304
- Title: CoNe: Contrast Your Neighbours for Supervised Image Classification
- Title(参考訳): CoNe:画像の分類を監督する隣人とは対照的に
- Authors: Mingkai Zheng, Shan You, Lang Huang, Xiu Su, Fei Wang, Chen Qian,
Xiaogang Wang, Chang Xu
- Abstract要約: Contrast Your Neighbours (CoNe)は、教師付き画像分類のための学習フレームワークである。
CoNeは、より適応的で洗練されたターゲットを生成するために、類似した隣人の特徴をアンカーとして採用している。
私たちのCoNeは、最近のTimトレーニングレシピを上回るResNet-50で、ImageNetの80.8%のTop-1精度を実現しています。
- 参考スコア(独自算出の注目度): 62.12074282211957
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image classification is a longstanding problem in computer vision and machine
learning research. Most recent works (e.g. SupCon , Triplet, and max-margin)
mainly focus on grouping the intra-class samples aggressively and compactly,
with the assumption that all intra-class samples should be pulled tightly
towards their class centers. However, such an objective will be very hard to
achieve since it ignores the intra-class variance in the dataset. (i.e.
different instances from the same class can have significant differences).
Thus, such a monotonous objective is not sufficient. To provide a more
informative objective, we introduce Contrast Your Neighbours (CoNe) - a simple
yet practical learning framework for supervised image classification.
Specifically, in CoNe, each sample is not only supervised by its class center
but also directly employs the features of its similar neighbors as anchors to
generate more adaptive and refined targets. Moreover, to further boost the
performance, we propose ``distributional consistency" as a more informative
regularization to enable similar instances to have a similar probability
distribution. Extensive experimental results demonstrate that CoNe achieves
state-of-the-art performance across different benchmark datasets, network
architectures, and settings. Notably, even without a complicated training
recipe, our CoNe achieves 80.8\% Top-1 accuracy on ImageNet with ResNet-50,
which surpasses the recent Timm training recipe (80.4\%). Code and pre-trained
models are available at
\href{https://github.com/mingkai-zheng/CoNe}{https://github.com/mingkai-zheng/CoNe}.
- Abstract(参考訳): 画像分類は、コンピュータビジョンと機械学習研究における長年の問題である。
最近の作品(例えばsupcon、triplet、max-margin)は、クラス内のサンプルを積極的にコンパクトにグループ化することに集中しており、クラス内のすべてのサンプルをクラスセンターへ引き寄せるべきであると仮定している。
しかし、このような目標はデータセット内のクラス内分散を無視するため、達成が非常に困難である。
(つまり、同じクラスから異なるインスタンスには大きな違いがある)。
したがって、そのような単調な目的は十分ではない。
より情報的な目的のために、教師付き画像分類のためのシンプルで実用的な学習フレームワークであるContrast Your Neighbours (CoNe)を紹介する。
特にコーンでは、各サンプルはクラスセンターによって監督されるだけでなく、類似する隣の機能をアンカーとして直接利用することで、より適応的で洗練されたターゲットを生成する。
さらに,性能をさらに高めるために,類似のインスタンスが類似の確率分布を持つように,より有益な正規化として``分散的一貫性'を提案する。
大規模な実験結果によると、CoNeはさまざまなベンチマークデータセット、ネットワークアーキテクチャ、設定で最先端のパフォーマンスを実現している。
特に、複雑なトレーニングレシピがなくても、imagenetではresnet-50で80.8\%のtop-1精度を達成し、最新のtimmトレーニングレシピ(80.4\%)を上回っています。
コードと事前訓練されたモデルは、 \href{https://github.com/mingkai-zheng/CoNe}{https://github.com/mingkai-zheng/CoNe}で入手できる。
関連論文リスト
- Meta Co-Training: Two Views are Better than One [4.050257210426548]
本稿では,Meta Pseudo Labelsアプローチを2つの視点に拡張したMeta Co-Trainingを提案する。
提案手法は,ImageNet-10%のトレーニングリソースをほとんど必要とせずに,新たな最先端性能を実現する。
論文 参考訳(メタデータ) (2023-11-29T21:11:58Z) - Adaptive Prototypical Networks [2.964978357715084]
ファウショット学習のためのプロトタイプネットワークは、エンコーダに埋め込み関数を学習し、類似した特徴を持つ画像を互いに近接して埋め込む。
メタテストフェーズにおいて,各クラスの埋め込みを他のクラスから直感的に切り離すアプローチを提案する。
これは、新しいタスクのサポートセットのサンプルとラベルを使用して、分類のためのエンコーダネットワークをトレーニングすることで達成される。
論文 参考訳(メタデータ) (2022-11-22T18:45:58Z) - Masked Unsupervised Self-training for Zero-shot Image Classification [98.23094305347709]
Masked Unsupervised Self-Training (MUST)は、疑似ラベルと生画像という2つの異なる、補完的な監督源を活用する新しいアプローチである。
MUSTはCLIPを大きなマージンで改善し、教師なしと教師なしの分類のパフォーマンスギャップを狭める。
論文 参考訳(メタデータ) (2022-06-07T02:03:06Z) - Chaos is a Ladder: A New Theoretical Understanding of Contrastive
Learning via Augmentation Overlap [64.60460828425502]
コントラスト学習の下流性能に関する新たな保証を提案する。
我々の新しい理論は、攻撃的なデータ強化の下で、異なるクラス内サンプルのサポートがより重なり合うという知見に基づいている。
本稿では、下流の精度とよく一致した教師なしモデル選択距離ARCを提案する。
論文 参考訳(メタデータ) (2022-03-25T05:36:26Z) - Weakly Supervised Contrastive Learning [68.47096022526927]
この問題に対処するために,弱教師付きコントラスト学習フレームワーク(WCL)を導入する。
WCLはResNet50を使用して65%と72%のImageNet Top-1の精度を実現している。
論文 参考訳(メタデータ) (2021-10-10T12:03:52Z) - Bag of Instances Aggregation Boosts Self-supervised Learning [122.61914701794296]
教師なし学習のための簡易かつ効果的な蒸留戦略を提案する。
BINGOと呼ばれる本手法は,教師が学習した関係を学生に伝達することを目的としている。
BINGOは、小規模モデルにおける最先端の新たなパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-07-04T17:33:59Z) - SimPLE: Similar Pseudo Label Exploitation for Semi-Supervised
Classification [24.386165255835063]
一般的な分類タスクの状況は、トレーニングに利用可能な大量のデータを持っているが、クラスラベルを持つのはごく一部である。
この文脈で、半監督トレーニングの目標は、大量のラベルのないデータからの情報を利用して分類精度を向上させることです。
本研究では,相互に類似した高信頼度ラベル付きデータ間の研究の少ない関係に焦点をあてた,教師なしの新たな目的を提案する。
提案したSimPLEアルゴリズムは,CIFAR-100およびMini-ImageNetにおける従来のアルゴリズムと比較して有意な性能向上を示した。
論文 参考訳(メタデータ) (2021-03-30T23:48:06Z) - Self-Supervised Classification Network [3.8073142980733]
自己監視型エンドツーエンド分類ニューラルネットワークはラベルと表現を同時に学習する。
大規模なImageNetデータセットでうまく機能する最初の監視されていないエンドツーエンドの分類ネットワーク。
論文 参考訳(メタデータ) (2021-03-19T19:29:42Z) - Unsupervised Feature Learning by Cross-Level Instance-Group
Discrimination [68.83098015578874]
我々は、インスタンスグループ化ではなく、クロスレベルな識別によって、インスタンス間の類似性を対照的な学習に統合する。
CLDは、教師なし学習を、自然データや現実世界のアプリケーションに効果的に近づける。
セルフスーパービジョン、セミスーパービジョン、トランスファーラーニングベンチマークに関する新たな最先端技術は、報告されたすべてのパフォーマンスでMoCo v2とSimCLRを上回っている。
論文 参考訳(メタデータ) (2020-08-09T21:13:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。