論文の概要: QK Iteration: A Self-Supervised Representation Learning Algorithm for
Image Similarity
- arxiv url: http://arxiv.org/abs/2111.07954v1
- Date: Mon, 15 Nov 2021 18:01:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-16 16:08:53.836649
- Title: QK Iteration: A Self-Supervised Representation Learning Algorithm for
Image Similarity
- Title(参考訳): QKイテレーション:画像類似性のための自己教師付き表現学習アルゴリズム
- Authors: David Wu and Yunnan Wu
- Abstract要約: 我々は、Facebook AI Researchが主催する2021年の画像類似度チャレンジにおいて、コピー検出の文脈において、新しいコントラッシブな自己教師型表現学習アルゴリズムを提案する。
我々のアルゴリズムは第1相のリーダーボード上で0.3401のマイクロAPスコアを達成し、ベースラインである$mu$APの0.1556よりも大幅に改善した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised representation learning is a fundamental problem in computer
vision with many useful applications (e.g., image search, instance level
recognition, copy detection). In this paper we present a new contrastive
self-supervised representation learning algorithm in the context of Copy
Detection in the 2021 Image Similarity Challenge hosted by Facebook AI
Research. Previous work in contrastive self-supervised learning has identified
the importance of being able to optimize representations while ``pushing''
against a large number of negative examples. Representative previous solutions
either use large batches enabled by modern distributed training systems or
maintain queues or memory banks holding recently evaluated representations
while relaxing some consistency properties. We approach this problem from a new
angle: We directly learn a query model and a key model jointly and push
representations against a very large number (e.g., 1 million) of negative
representations in each SGD step. We achieve this by freezing the backbone on
one side and by alternating between a Q-optimization step and a K-optimization
step. During the competition timeframe, our algorithms achieved a micro-AP
score of 0.3401 on the Phase 1 leaderboard, significantly improving over the
baseline $\mu$AP of 0.1556. On the final Phase 2 leaderboard, our model scored
0.1919, while the baseline scored 0.0526. Continued training yielded further
improvement. We conducted an empirical study to compare the proposed approach
with a SimCLR style strategy where the negative examples are taken from the
batch only. We found that our method ($\mu$AP of 0.3403) significantly
outperforms this SimCLR-style baseline ($\mu$AP of 0.2001).
- Abstract(参考訳): 自己教師あり表現学習は多くの有用な応用(画像検索、インスタンスレベル認識、コピー検出など)を持つコンピュータビジョンにおける根本的な問題である。
本稿では,facebook ai researchが主催する2021 image similarity challengeにおいて,コピー検出の文脈において,コントラスト的自己教師付き表現学習アルゴリズムを提案する。
対照的な自己教師付き学習における以前の研究は、多くの否定的な例に対して `pushing'' をしながら表現を最適化できる重要性を見出した。
従来のソリューションでは、現代的な分散トレーニングシステムで使用可能な大規模なバッチを使用するか、キューやメモリバンクを保持しながら、最近の評価された表現を保持しながら一貫性特性を緩和する。
私たちはクエリモデルとキーモデルを直接学習し、sgdステップ毎に非常に大きな数の負の表現(例えば100万)に対して表現をプッシュします。
本研究では,一方のバックボーンを凍結し,一方のQ最適化ステップとK最適化ステップとを交互に交互に行う。
コンペの期間に、我々のアルゴリズムはフェーズ1のリーダーボードで0.3401のマイクロAPスコアを達成し、ベースラインの$\mu$APの0.1556よりも大幅に改善した。
最終フェーズ2では、私たちのモデルは0.1919、ベースラインは0.0526だった。
訓練はさらなる改善をもたらした。
提案手法を,バッチのみから否定的な例を取り出すsimclrスタイル戦略と比較する実験を行った。
その結果,本手法はSimCLRスタイルのベースライン(0.2001の\mu$AP)を著しく上回っていることがわかった。
関連論文リスト
- $\mathbb{X}$-Sample Contrastive Loss: Improving Contrastive Learning with Sample Similarity Graphs [62.565573316667276]
サンプルが他者とどのように関連しているかを符号化する目的を開発する。
クラスやテキストのキャプション記述における類似性に基づいて視覚モデルを訓練する。
我々の目標は、特に低いデータ体制でうまく機能しているようで、CLIPが16.8%、ImageNet Realが18.1%だった。
論文 参考訳(メタデータ) (2024-07-25T15:38:16Z) - Transductive Zero-Shot and Few-Shot CLIP [24.592841797020203]
本稿では,トランスダクティブなゼロショットと少数ショットのCLIP分類問題に対処する。
推論は、各インスタンスを独立して扱うのではなく、ラベルのないクエリサンプルのミニバッチで共同で実行される。
提案手法は,CLIPのゼロショット性能に対して,画像ネットの精度を約20%向上させる。
論文 参考訳(メタデータ) (2024-04-08T12:44:31Z) - CUCL: Codebook for Unsupervised Continual Learning [129.91731617718781]
本研究は,教師なし連続学習(UCL)の代替として,教師なし連続学習(UCL)に焦点を当てている。
本稿では,教師なし連続学習のためのCodebook for Unsupervised Continual Learning (CUCL) という手法を提案する。
本手法は教師なしおよび教師なしの手法の性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-11-25T03:08:50Z) - MOCA: Self-supervised Representation Learning by Predicting Masked Online Codebook Assignments [72.6405488990753]
自己教師付き学習は、ビジョントランスフォーマーネットワークの欲求を軽減できる。
所望のプロパティを統一する単段および単段のMOCAを提案する。
我々は,様々な評価プロトコルにおいて,低照度設定と強力な実験結果に対して,最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2023-07-18T15:46:20Z) - Semantic Positive Pairs for Enhancing Visual Representation Learning of Instance Discrimination methods [4.680881326162484]
インスタンス識別に基づく自己教師付き学習アルゴリズム(SSL)は有望な結果を示している。
類似したセマンティックコンテンツを用いてそれらの画像を識別し、肯定的な例として扱うアプローチを提案する。
我々は、ImageNet、STL-10、CIFAR-10の3つのベンチマークデータセットで、異なるインスタンス識別SSLアプローチで実験を行った。
論文 参考訳(メタデータ) (2023-06-28T11:47:08Z) - Weakly Supervised Contrastive Learning [68.47096022526927]
この問題に対処するために,弱教師付きコントラスト学習フレームワーク(WCL)を導入する。
WCLはResNet50を使用して65%と72%のImageNet Top-1の精度を実現している。
論文 参考訳(メタデータ) (2021-10-10T12:03:52Z) - Improving Contrastive Learning by Visualizing Feature Transformation [37.548120912055595]
本稿では,データ拡張とは異なる特徴レベルのデータ操作を考案し,汎用的なコントラスト型自己教師型学習の強化を試みる。
まず,pos/negスコアの可視化手法(pos/negスコアはpos/negペアの類似性を示す)を設計し,学習過程の分析,解釈,理解を可能にする。
その結果,MoCoベースライン上でのImageNet-100の精度は少なくとも6.0%向上し,MoCoV2ベースライン上でのImageNet-1Kの精度は約2.0%向上した。
論文 参考訳(メタデータ) (2021-08-06T07:26:08Z) - Beyond Single Instance Multi-view Unsupervised Representation Learning [21.449132256091662]
ランダムにサンプリングされた2つのインスタンス間の結合類似度を測定することにより、より正確なインスタンス識別能力を付与する。
符号化された特徴が潜伏した空間でより均等に分散される場合,共同学習の類似性によって性能が向上すると考えている。
論文 参考訳(メタデータ) (2020-11-26T15:43:27Z) - Unsupervised Learning of Visual Features by Contrasting Cluster
Assignments [57.33699905852397]
ペア比較の計算を必要とせず,コントラスト的手法を生かしたオンラインアルゴリズムSwaVを提案する。
本手法では,クラスタ割り当て間の一貫性を保ちながら,同時にデータをクラスタ化する。
我々の方法は大規模で小さなバッチで訓練でき、無制限のデータにスケールできる。
論文 参考訳(メタデータ) (2020-06-17T14:00:42Z) - SCAN: Learning to Classify Images without Labels [73.69513783788622]
機能学習とクラスタリングを分離する2段階のアプローチを提唱する。
表現学習からの自己教師型タスクを用いて意味論的意味のある特徴を得る。
我々は、ImageNet上で有望な結果を得、低データ体制下では、いくつかの半教師付き学習方法より優れています。
論文 参考訳(メタデータ) (2020-05-25T18:12:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。