論文の概要: Soft Neighbors are Positive Supporters in Contrastive Visual
Representation Learning
- arxiv url: http://arxiv.org/abs/2303.17142v1
- Date: Thu, 30 Mar 2023 04:22:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-31 14:24:55.166541
- Title: Soft Neighbors are Positive Supporters in Contrastive Visual
Representation Learning
- Title(参考訳): ソフトな隣人は、対照的な視覚表現学習のポジティブサポーターである
- Authors: Chongjian Ge, Jiangliu Wang, Zhan Tong, Shoufa Chen, Yibing Song, and
Ping Luo
- Abstract要約: コントラスト学習法は、あるインスタンスと他のインスタンスのビューを比較して視覚エンコーダを訓練する。
このバイナリインスタンス識別は、自己教師付き学習における特徴表現を改善するために広範囲に研究されている。
本稿では、インスタンス識別フレームワークを再考し、異なるサンプル間の相関を測定するのに不十分なバイナリインスタンスラベルを見つける。
- 参考スコア(独自算出の注目度): 35.53729744330751
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contrastive learning methods train visual encoders by comparing views from
one instance to others. Typically, the views created from one instance are set
as positive, while views from other instances are negative. This binary
instance discrimination is studied extensively to improve feature
representations in self-supervised learning. In this paper, we rethink the
instance discrimination framework and find the binary instance labeling
insufficient to measure correlations between different samples. For an
intuitive example, given a random image instance, there may exist other images
in a mini-batch whose content meanings are the same (i.e., belonging to the
same category) or partially related (i.e., belonging to a similar category).
How to treat the images that correlate similarly to the current image instance
leaves an unexplored problem. We thus propose to support the current image by
exploring other correlated instances (i.e., soft neighbors). We first carefully
cultivate a candidate neighbor set, which will be further utilized to explore
the highly-correlated instances. A cross-attention module is then introduced to
predict the correlation score (denoted as positiveness) of other correlated
instances with respect to the current one. The positiveness score
quantitatively measures the positive support from each correlated instance, and
is encoded into the objective for pretext training. To this end, our proposed
method benefits in discriminating uncorrelated instances while absorbing
correlated instances for SSL. We evaluate our soft neighbor contrastive
learning method (SNCLR) on standard visual recognition benchmarks, including
image classification, object detection, and instance segmentation. The
state-of-the-art recognition performance shows that SNCLR is effective in
improving feature representations from both ViT and CNN encoders.
- Abstract(参考訳): コントラスト学習法は、あるインスタンスと他のインスタンスのビューを比較して視覚エンコーダを訓練する。
通常、あるインスタンスから作成されたビューはポジティブに設定され、他のインスタンスからのビューはネガティブに設定される。
この二項インスタンス識別は、自己教師付き学習における特徴表現を改善するために広く研究されている。
本稿では、インスタンス識別フレームワークを再考し、異なるサンプル間の相関を測定するのに不十分なバイナリインスタンスラベルを見つける。
直感的な例では、ランダムな画像インスタンスが与えられた場合、コンテンツの意味が同じ(つまり同じカテゴリに属する)、または部分的に関連している(すなわち類似のカテゴリに属する)ミニバッチに他の画像が存在するかもしれない。
現在のイメージインスタンスと類似したイメージの扱い方は、未解決の問題を残している。
そこで本研究では,他の相関インスタンス(ソフト近傍)を探索することにより,現在の画像をサポートすることを提案する。
まず, 候補近傍集合を慎重に育成し, 関連性の高いインスタンスの探索に活用する。
次に、クロスアテンションモジュールを導入して、現在のものに対する他の相関インスタンスの相関スコア(正性を示す)を予測する。
正性スコアは、相関する各インスタンスからの正の支持を定量的に測定し、プリテキストトレーニングの目的に符号化する。
この目的のために,提案手法はSSLの関連インスタンスを吸収しながら非相関インスタンスの識別に有効である。
画像分類,オブジェクト検出,インスタンスセグメンテーションなどの標準視覚認識ベンチマークにおいて,ソフト近傍のコントラスト学習法(snclr)を評価した。
SNCLRは,VTエンコーダとCNNエンコーダの両方の機能表現を改善するのに有効であることを示す。
関連論文リスト
- Semantic Positive Pairs for Enhancing Visual Representation Learning of Instance Discrimination methods [4.680881326162484]
インスタンス識別に基づく自己教師付き学習アルゴリズム(SSL)は有望な結果を示している。
類似したセマンティックコンテンツを用いてそれらの画像を識別し、肯定的な例として扱うアプローチを提案する。
我々は、ImageNet、STL-10、CIFAR-10の3つのベンチマークデータセットで、異なるインスタンス識別SSLアプローチで実験を行った。
論文 参考訳(メタデータ) (2023-06-28T11:47:08Z) - Similarity Contrastive Estimation for Image and Video Soft Contrastive
Self-Supervised Learning [0.22940141855172028]
本稿では,インスタンス間の意味的類似性を用いたコントラスト学習の新たな定式化を提案する。
私たちのトレーニングの目標はソフトコントラストで、ポジティブに近づき、ネガティブなインスタンスを押したり引っ張ったりするための継続的分布を見積もります。
我々は,SCEが映像表現を事前学習するための最先端の結果に到達し,学習された表現が映像下流タスクに一般化可能であることを示す。
論文 参考訳(メタデータ) (2022-12-21T16:56:55Z) - Beyond Instance Discrimination: Relation-aware Contrastive
Self-supervised Learning [75.46664770669949]
本稿では,関係認識型コントラスト型自己教師型学習(ReCo)をインスタンス関係に統合するために提案する。
当社のReCoは、常に顕著なパフォーマンス改善を実現しています。
論文 参考訳(メタデータ) (2022-11-02T03:25:28Z) - Not All Instances Contribute Equally: Instance-adaptive Class
Representation Learning for Few-Shot Visual Recognition [94.04041301504567]
少数ショットの視覚認識は、いくつかのラベル付きインスタンスから新しい視覚概念を認識することを指す。
本稿では,数ショットの視覚認識を実現するために,インスタンス適応型クラス表現学習ネットワーク(ICRL-Net)と呼ばれる新しいメトリックベースのメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-07T10:00:18Z) - Similarity Contrastive Estimation for Self-Supervised Soft Contrastive
Learning [0.41998444721319206]
優れたデータ表現は、インスタンス間の関係、つまり意味的類似性を含んでいる、と我々は主張する。
類似性コントラスト推定(SCE)と呼ばれるインスタンス間の意味的類似性を用いたコントラスト学習の新しい定式化を提案する。
我々の訓練対象はソフトコントラスト学習と見なすことができる。
論文 参考訳(メタデータ) (2021-11-29T15:19:15Z) - Weakly Supervised Contrastive Learning [68.47096022526927]
この問題に対処するために,弱教師付きコントラスト学習フレームワーク(WCL)を導入する。
WCLはResNet50を使用して65%と72%のImageNet Top-1の精度を実現している。
論文 参考訳(メタデータ) (2021-10-10T12:03:52Z) - Beyond Single Instance Multi-view Unsupervised Representation Learning [21.449132256091662]
ランダムにサンプリングされた2つのインスタンス間の結合類似度を測定することにより、より正確なインスタンス識別能力を付与する。
符号化された特徴が潜伏した空間でより均等に分散される場合,共同学習の類似性によって性能が向上すると考えている。
論文 参考訳(メタデータ) (2020-11-26T15:43:27Z) - Unsupervised Feature Learning by Cross-Level Instance-Group
Discrimination [68.83098015578874]
我々は、インスタンスグループ化ではなく、クロスレベルな識別によって、インスタンス間の類似性を対照的な学習に統合する。
CLDは、教師なし学習を、自然データや現実世界のアプリケーションに効果的に近づける。
セルフスーパービジョン、セミスーパービジョン、トランスファーラーニングベンチマークに関する新たな最先端技術は、報告されたすべてのパフォーマンスでMoCo v2とSimCLRを上回っている。
論文 参考訳(メタデータ) (2020-08-09T21:13:13Z) - Demystifying Contrastive Self-Supervised Learning: Invariances,
Augmentations and Dataset Biases [34.02639091680309]
近年のパフォーマンス向上は、インスタンス分類モデルをトレーニングし、各イメージを扱い、拡張バージョンを単一のクラスのサンプルとして扱うことで実現している。
我々は,MOCO や PIRL のようなアプローチがオクルージョン不変表現を学習することを示した。
第2に、Imagenetのようなクリーンなオブジェクト中心のトレーニングデータセットにアクセスすることで、これらのアプローチがさらに利益を得ることを示す。
論文 参考訳(メタデータ) (2020-07-28T00:11:31Z) - Whitening for Self-Supervised Representation Learning [129.57407186848917]
本稿では,潜在空間の特徴の白化に基づく自己教師付き表現学習(SSL)のための新しい損失関数を提案する。
我々の解は非対称なネットワークを必要とせず、概念的には単純である。
論文 参考訳(メタデータ) (2020-07-13T12:33:25Z) - Memory-Augmented Relation Network for Few-Shot Learning [114.47866281436829]
本研究では,新しい距離学習手法であるメモリ拡張リレーショナルネットワーク(MRN)について検討する。
MRNでは、作業状況と視覚的に類似したサンプルを選択し、重み付け情報伝搬を行い、選択したサンプルから有用な情報を注意深く集約し、その表現を強化する。
我々は、MRNが祖先よりも大幅に向上し、他の数発の学習手法と比較して、競争力や性能が向上することを示した。
論文 参考訳(メタデータ) (2020-05-09T10:09:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。