論文の概要: Bag of Instances Aggregation Boosts Self-supervised Learning
- arxiv url: http://arxiv.org/abs/2107.01691v1
- Date: Sun, 4 Jul 2021 17:33:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-06 15:00:40.656614
- Title: Bag of Instances Aggregation Boosts Self-supervised Learning
- Title(参考訳): Bag of Instances Aggregationは自己教師型学習を促進する
- Authors: Haohang Xu and Jiemin Fang and Xiaopeng Zhang and Lingxi Xie and
Xinggang Wang and Wenrui Dai and Hongkai Xiong and Qi Tian
- Abstract要約: 教師なし学習のための簡易かつ効果的な蒸留戦略を提案する。
BINGOと呼ばれる本手法は,教師が学習した関係を学生に伝達することを目的としている。
BINGOは、小規模モデルにおける最先端の新たなパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 122.61914701794296
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in self-supervised learning have experienced remarkable
progress, especially for contrastive learning based methods, which regard each
image as well as its augmentations as an individual class and try to
distinguish them from all other images. However, due to the large quantity of
exemplars, this kind of pretext task intrinsically suffers from slow
convergence and is hard for optimization. This is especially true for small
scale models, which we find the performance drops dramatically comparing with
its supervised counterpart. In this paper, we propose a simple but effective
distillation strategy for unsupervised learning. The highlight is that the
relationship among similar samples counts and can be seamlessly transferred to
the student to boost the performance. Our method, termed as BINGO, which is
short for \textbf{B}ag of \textbf{I}nsta\textbf{N}ces
a\textbf{G}gregati\textbf{O}n, targets at transferring the relationship learned
by the teacher to the student. Here bag of instances indicates a set of similar
samples constructed by the teacher and are grouped within a bag, and the goal
of distillation is to aggregate compact representations over the student with
respect to instances in a bag. Notably, BINGO achieves new state-of-the-art
performance on small scale models, \emph{i.e.}, 65.5% and 68.9% top-1
accuracies with linear evaluation on ImageNet, using ResNet-18 and ResNet-34 as
backbone, respectively, surpassing baselines (52.5% and 57.4% top-1 accuracies)
by a significant margin. The code will be available at
\url{https://github.com/haohang96/bingo}.
- Abstract(参考訳): 近年の自己教師型学習の進歩は顕著な進歩を遂げており、特に対照的な学習に基づく手法では、各画像と、その拡張を個別のクラスとみなし、他のすべての画像と区別しようと試みている。
しかし、多くの例があるため、この種のプレテキストタスクは本質的には収束が遅く、最適化が難しい。
これは特に小規模モデルに当てはまり、教師付きモデルと比較すると、パフォーマンスが劇的に低下することがわかった。
本稿では,教師なし学習のための簡易かつ効果的な蒸留戦略を提案する。
注目すべき点は、類似したサンプル間の関係がカウントされ、パフォーマンスを高めるために学生にシームレスに転送できることだ。
私たちのメソッドはBINGOと呼ばれ、教師が学習した関係を学生に転送するターゲットとして、 \textbf{I}nsta\textbf{N}ces a\textbf{G}gregati\textbf{O}n の \textbf{B}ag と略される。
ここでの例の袋は、教師によって構築され、袋の中にグループ化されている類似のサンプルのセットを示し、蒸留の目的は、バッグのインスタンスに関して学生にコンパクト表現を集約することである。
特筆すべきは、BINGOは小規模モデルにおける新しい最先端性能であるemph{i.e。
ResNet-18とResNet-34をバックボーンとして、ImageNet上で線形評価された65.5%と68.9%のトップ1アキュラシーは、それぞれベースライン(52.5%と57.4%のトップ1アキュラシー)をかなり上回っている。
コードは \url{https://github.com/haohang96/bingo} で入手できる。
関連論文リスト
- CoNe: Contrast Your Neighbours for Supervised Image Classification [62.12074282211957]
Contrast Your Neighbours (CoNe)は、教師付き画像分類のための学習フレームワークである。
CoNeは、より適応的で洗練されたターゲットを生成するために、類似した隣人の特徴をアンカーとして採用している。
私たちのCoNeは、最近のTimトレーニングレシピを上回るResNet-50で、ImageNetの80.8%のTop-1精度を実現しています。
論文 参考訳(メタデータ) (2023-08-21T14:49:37Z) - MSVQ: Self-Supervised Learning with Multiple Sample Views and Queues [6.186839657478166]
我々は、新しいシンプルなフレームワーク、すなわちMultiple Sample Views and Queues(MSVQ)を提案する。
2つの相補的および対称的な方法を導入することで、ソフトなラベルをオンザフライで共同で構築する。
生徒は、サンプル間の類似した関係を模倣して、偽陰性サンプルを識別するより柔軟な能力を与える。
論文 参考訳(メタデータ) (2023-05-09T12:05:14Z) - MoBYv2AL: Self-supervised Active Learning for Image Classification [57.4372176671293]
画像分類のための自己教師型アクティブラーニングフレームワークであるMoBYv2ALを提案する。
私たちの貢献は、最も成功した自己教師付き学習アルゴリズムであるMoBYをALパイプラインに持ち上げることです。
近年のAL法と比較すると,最先端の結果が得られている。
論文 参考訳(メタデータ) (2023-01-04T10:52:02Z) - Weakly Supervised Contrastive Learning [68.47096022526927]
この問題に対処するために,弱教師付きコントラスト学習フレームワーク(WCL)を導入する。
WCLはResNet50を使用して65%と72%のImageNet Top-1の精度を実現している。
論文 参考訳(メタデータ) (2021-10-10T12:03:52Z) - CompRess: Self-Supervised Learning by Compressing Representations [14.739041141948032]
我々は、既に学んだ、深い自己教師付きモデル(教師)をより小さなモデル(学生)に圧縮するモデル圧縮法を開発した。
教師の埋め込み空間におけるデータポイント間の相対的類似性を模倣するように、学生モデルを訓練する。
ImageNet分類において、自己監督型AlexNetが教師型AlexNetを上回ったのはこれが初めてである。
論文 参考訳(メタデータ) (2020-10-28T02:49:18Z) - Unsupervised Learning of Visual Features by Contrasting Cluster
Assignments [57.33699905852397]
ペア比較の計算を必要とせず,コントラスト的手法を生かしたオンラインアルゴリズムSwaVを提案する。
本手法では,クラスタ割り当て間の一貫性を保ちながら,同時にデータをクラスタ化する。
我々の方法は大規模で小さなバッチで訓練でき、無制限のデータにスケールできる。
論文 参考訳(メタデータ) (2020-06-17T14:00:42Z) - Memory-Augmented Relation Network for Few-Shot Learning [114.47866281436829]
本研究では,新しい距離学習手法であるメモリ拡張リレーショナルネットワーク(MRN)について検討する。
MRNでは、作業状況と視覚的に類似したサンプルを選択し、重み付け情報伝搬を行い、選択したサンプルから有用な情報を注意深く集約し、その表現を強化する。
我々は、MRNが祖先よりも大幅に向上し、他の数発の学習手法と比較して、競争力や性能が向上することを示した。
論文 参考訳(メタデータ) (2020-05-09T10:09:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。