論文の概要: MixCo: Mix-up Contrastive Learning for Visual Representation
- arxiv url: http://arxiv.org/abs/2010.06300v2
- Date: Sun, 15 Nov 2020 08:29:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 00:06:50.962836
- Title: MixCo: Mix-up Contrastive Learning for Visual Representation
- Title(参考訳): MixCo: ビジュアル表現のための混合コントラスト学習
- Authors: Sungnyun Kim, Gihun Lee, Sangmin Bae, Se-Young Yun
- Abstract要約: 本稿では, 正と負の混合画像から符号化された半正に, 対照的な学習概念を拡張するMixCo(Mix-up Contrast)を提案する。
我々は,TinyImageNet,CIFAR10,CIFAR100上での線形評価プロトコルを用いて,近年の自己教師付き学習アルゴリズムに適用したMixCoの有効性を検証する。
注目すべきは、学習能力(例えばモデルサイズ)が制限された場合、改善がより重要になることだ。
- 参考スコア(独自算出の注目度): 9.520158869896393
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contrastive learning has shown remarkable results in recent self-supervised
approaches for visual representation. By learning to contrast positive pairs'
representation from the corresponding negatives pairs, one can train good
visual representations without human annotations. This paper proposes Mix-up
Contrast (MixCo), which extends the contrastive learning concept to
semi-positives encoded from the mix-up of positive and negative images. MixCo
aims to learn the relative similarity of representations, reflecting how much
the mixed images have the original positives. We validate the efficacy of MixCo
when applied to the recent self-supervised learning algorithms under the
standard linear evaluation protocol on TinyImageNet, CIFAR10, and CIFAR100. In
the experiments, MixCo consistently improves test accuracy. Remarkably, the
improvement is more significant when the learning capacity (e.g., model size)
is limited, suggesting that MixCo might be more useful in real-world scenarios.
The code is available at: https://github.com/Lee-Gihun/MixCo-Mixup-Contrast.
- Abstract(参考訳): コントラスト学習は、視覚表現に対する近年の自己指導的アプローチにおいて顕著な結果を示している。
正の対を対応する負の対と対比することにより、人間のアノテーションなしでよい視覚表現を訓練することができる。
本稿では, 正と負の混合画像から符号化された半正に, 対照的な学習概念を拡張するMixCo(Mix-up Contrast)を提案する。
MixCoは表現の相対的な類似性を学ぶことを目的としており、混合画像が元の正の値を持っていることを反映している。
我々は,TinyImageNet,CIFAR10,CIFAR100上での線形評価プロトコルを用いて,近年の自己教師付き学習アルゴリズムに適用したMixCoの有効性を検証する。
実験では、mixcoは一貫してテスト精度を向上させる。
驚くべきことに、学習能力(例えばモデルサイズ)が限られている場合、改善はより重要であり、mixcoは現実世界のシナリオでより役に立つかもしれない。
コードはhttps://github.com/lee-gihun/mixco-mixup-contrastで入手できる。
関連論文リスト
- SUMix: Mixup with Semantic and Uncertain Information [41.99721365685618]
混合データ拡張アプローチは、ディープラーニングの様々なタスクに応用されている。
そこで我々は,SUMix という新しい手法を提案し,混合率と混合試料の不確かさを学習する。
論文 参考訳(メタデータ) (2024-07-10T16:25:26Z) - CoNe: Contrast Your Neighbours for Supervised Image Classification [62.12074282211957]
Contrast Your Neighbours (CoNe)は、教師付き画像分類のための学習フレームワークである。
CoNeは、より適応的で洗練されたターゲットを生成するために、類似した隣人の特徴をアンカーとして採用している。
私たちのCoNeは、最近のTimトレーニングレシピを上回るResNet-50で、ImageNetの80.8%のTop-1精度を実現しています。
論文 参考訳(メタデータ) (2023-08-21T14:49:37Z) - MOCA: Self-supervised Representation Learning by Predicting Masked Online Codebook Assignments [72.6405488990753]
自己教師付き学習は、ビジョントランスフォーマーネットワークの欲求を軽減できる。
所望のプロパティを統一する単段および単段のMOCAを提案する。
我々は,様々な評価プロトコルにおいて,低照度設定と強力な実験結果に対して,最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2023-07-18T15:46:20Z) - Inter-Instance Similarity Modeling for Contrastive Learning [22.56316444504397]
視覚変換器(ViT)におけるコントラスト学習のための新しい画像混合手法であるPatchMixを提案する。
既存のサンプルミキシング手法と比較して、我々のPatchMixは2つ以上の画像を柔軟に効率的に混ぜることができる。
提案手法は,ImageNet-1KとCIFARの両方のデータセットにおいて,従来の最先端技術よりも大幅に優れていた。
論文 参考訳(メタデータ) (2023-06-21T13:03:47Z) - The Benefits of Mixup for Feature Learning [117.93273337740442]
最初に、機能やラベルに異なる線形パラメータを使用するMixupは、標準Mixupと同様のパフォーマンスが得られることを示す。
我々は、特徴雑音データモデルを検討し、Mixupトレーニングが共通の特徴と組み合わせることで、稀な特徴を効果的に学習できることを示します。
対照的に、標準的なトレーニングは共通の特徴しか学べないが、まれな特徴を学べないため、パフォーマンスが悪くなる。
論文 参考訳(メタデータ) (2023-03-15T08:11:47Z) - MixupE: Understanding and Improving Mixup from Directional Derivative
Perspective [86.06981860668424]
理論上は、バニラ・ミックスアップよりも優れた一般化性能を実現するために、Mixupの改良版を提案する。
提案手法は,様々なアーキテクチャを用いて,複数のデータセットにまたがるMixupを改善した。
論文 参考訳(メタデータ) (2022-12-27T07:03:52Z) - SMMix: Self-Motivated Image Mixing for Vision Transformers [65.809376136455]
CutMixは視覚変換器(ViT)の性能と一般化能力を決定する重要な拡張戦略である
既存のCutMixの変種は、より一貫性のある混合画像やより正確な混合ラベルを生成することでこの問題に対処している。
本稿では,学習モデルによる画像とラベルの強調を動機づける,効率的かつ効果的な自己運動画像混合法を提案する。
論文 参考訳(メタデータ) (2022-12-26T00:19:39Z) - Crafting Better Contrastive Views for Siamese Representation Learning [20.552194081238248]
提案するContrastiveCropは,シームズ表現学習のための作物を効果的に生成する。
完全に教師なしの方法で、トレーニングプロセス内に意味を意識したオブジェクトローカライゼーション戦略を提案する。
プラグインとフレームワークに依存しないモジュールとして、ContrastiveCropはSimCLR、MoCo、BYOL、SimSiamを0.4%の精度で改善している。
論文 参考訳(メタデータ) (2022-02-07T15:09:00Z) - Un-Mix: Rethinking Image Mixtures for Unsupervised Visual Representation
Learning [108.999497144296]
近年の先進的な教師なし学習手法では,同じ画像から2つの「ビュー」を学習表現として比較するために,サイムズ様の枠組みを用いている。
この研究は、教師なし学習においてラベル空間上の距離の概念を巻き込み、正対と負対のソフトな類似度をモデルに認識させることを目的としている。
その概念的単純さにもかかわらず、この解 -- 教師なし画像混合(Un-Mix)により、変換された入力と対応する新しいラベル空間からより微妙でより堅牢で一般化された表現を学習できることを実証的に示す。
論文 参考訳(メタデータ) (2020-03-11T17:59:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。