論文の概要: Similarity Contrastive Estimation for Image and Video Soft Contrastive
Self-Supervised Learning
- arxiv url: http://arxiv.org/abs/2212.11187v1
- Date: Wed, 21 Dec 2022 16:56:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 13:45:00.947174
- Title: Similarity Contrastive Estimation for Image and Video Soft Contrastive
Self-Supervised Learning
- Title(参考訳): 画像と映像の類似性を考慮した自己監督学習
- Authors: Julien Denize, Jaonary Rabarisoa, Astrid Orcesi, Romain H\'erault
- Abstract要約: 本稿では,インスタンス間の意味的類似性を用いたコントラスト学習の新たな定式化を提案する。
私たちのトレーニングの目標はソフトコントラストで、ポジティブに近づき、ネガティブなインスタンスを押したり引っ張ったりするための継続的分布を見積もります。
我々は,SCEが映像表現を事前学習するための最先端の結果に到達し,学習された表現が映像下流タスクに一般化可能であることを示す。
- 参考スコア(独自算出の注目度): 0.22940141855172028
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contrastive representation learning has proven to be an effective
self-supervised learning method for images and videos. Most successful
approaches are based on Noise Contrastive Estimation (NCE) and use different
views of an instance as positives that should be contrasted with other
instances, called negatives, that are considered as noise. However, several
instances in a dataset are drawn from the same distribution and share
underlying semantic information. A good data representation should contain
relations between the instances, or semantic similarity and dissimilarity, that
contrastive learning harms by considering all negatives as noise. To circumvent
this issue, we propose a novel formulation of contrastive learning using
semantic similarity between instances called Similarity Contrastive Estimation
(SCE). Our training objective is a soft contrastive one that brings the
positives closer and estimates a continuous distribution to push or pull
negative instances based on their learned similarities. We validate empirically
our approach on both image and video representation learning. We show that SCE
performs competitively with the state of the art on the ImageNet linear
evaluation protocol for fewer pretraining epochs and that it generalizes to
several downstream image tasks. We also show that SCE reaches state-of-the-art
results for pretraining video representation and that the learned
representation can generalize to video downstream tasks.
- Abstract(参考訳): コントラスト表現学習は、画像やビデオに対する効果的な自己教師型学習手法であることが証明されている。
最も成功したアプローチはノイズコントラスト推定(NCE)に基づいており、ノイズと見なされる他のインスタンスと対比すべき正の値としてインスタンスの異なるビューを使用する。
しかしながら、データセット内のいくつかのインスタンスは、同じディストリビューションから引き出され、基礎となるセマンティック情報を共有する。
優れたデータ表現は、すべての負をノイズとして考えることで、対照的な学習が害するインスタンス、または意味的類似性と相違性の関係を含むべきである。
本稿では,類似度コントラスト推定(sce)と呼ばれるインスタンス間の意味的類似性を用いたコントラスト学習の新しい定式化を提案する。
私たちのトレーニングの対象はソフトコントラストで、ポジティブに近づき、学習した類似性に基づいて負のインスタンスをプッシュまたはプルするために連続的な分布を見積もります。
我々は画像表現学習と映像表現学習の両方に経験的アプローチを適用した。
我々は,SCEが事前学習するエポックを少なく抑えるために,ImageNet線形評価プロトコル上で技術状況と競合し,複数の下流画像タスクに一般化することを示す。
また,SCEが映像表現を事前学習するための最先端結果に到達し,学習した表現が映像下流タスクに一般化可能であることを示す。
関連論文リスト
- Soft Neighbors are Positive Supporters in Contrastive Visual
Representation Learning [35.53729744330751]
コントラスト学習法は、あるインスタンスと他のインスタンスのビューを比較して視覚エンコーダを訓練する。
このバイナリインスタンス識別は、自己教師付き学習における特徴表現を改善するために広範囲に研究されている。
本稿では、インスタンス識別フレームワークを再考し、異なるサンプル間の相関を測定するのに不十分なバイナリインスタンスラベルを見つける。
論文 参考訳(メタデータ) (2023-03-30T04:22:07Z) - Modulated Contrast for Versatile Image Synthesis [60.304183493234376]
MoNCEは画像のコントラストを導入し、多面的画像間距離の知覚のための校正基準を学習する。
複数の対照的な目的に対して協調的に負のサンプルのプッシュ力を変調するために,MoNCEの最適輸送を導入する。
論文 参考訳(メタデータ) (2022-03-17T14:03:46Z) - Robust Contrastive Learning against Noisy Views [79.71880076439297]
ノイズの多い視点に対して頑健な新しいコントラスト損失関数を提案する。
提案手法は,最新の画像,ビデオ,グラフのコントラスト学習ベンチマークに対して一貫した改善を提供する。
論文 参考訳(メタデータ) (2022-01-12T05:24:29Z) - Similarity Contrastive Estimation for Self-Supervised Soft Contrastive
Learning [0.41998444721319206]
優れたデータ表現は、インスタンス間の関係、つまり意味的類似性を含んでいる、と我々は主張する。
類似性コントラスト推定(SCE)と呼ばれるインスタンス間の意味的類似性を用いたコントラスト学習の新しい定式化を提案する。
我々の訓練対象はソフトコントラスト学習と見なすことができる。
論文 参考訳(メタデータ) (2021-11-29T15:19:15Z) - Investigating the Role of Negatives in Contrastive Representation
Learning [59.30700308648194]
ノイズコントラスト学習は教師なし表現学習の一般的な手法である。
我々は、これらのパラメータの1つの役割の曖昧さ、すなわち負の例の数に焦点をあてる。
結果が我々の理論と広く一致しているのに対して、我々の視覚実験はより悪質であり、性能は時々負の数に敏感である。
論文 参考訳(メタデータ) (2021-06-18T06:44:16Z) - Contrastive Learning of Image Representations with Cross-Video
Cycle-Consistency [13.19476138523546]
ビデオ間関係は視覚表現学習ではほとんど研究されていない。
本稿では,一般画像表現学習のサイクル一貫性を利用して,映像間関係を探索する新しいコントラスト学習手法を提案する。
最先端のコントラスト学習方法よりも大幅に改善されています。
論文 参考訳(メタデータ) (2021-05-13T17:59:11Z) - CoCon: Cooperative-Contrastive Learning [52.342936645996765]
自己教師付き視覚表現学習は効率的な映像分析の鍵である。
最近の画像表現の学習の成功は、コントラスト学習がこの課題に取り組むための有望なフレームワークであることを示唆している。
コントラスト学習の協調的バリエーションを導入し、ビュー間の相補的な情報を活用する。
論文 参考訳(メタデータ) (2021-04-30T05:46:02Z) - Robust Audio-Visual Instance Discrimination [79.74625434659443]
音声・映像表現を学習するための自己指導型学習法を提案する。
視聴覚インスタンスの識別の問題に対処し、転送学習パフォーマンスを向上させます。
論文 参考訳(メタデータ) (2021-03-29T19:52:29Z) - Whitening for Self-Supervised Representation Learning [129.57407186848917]
本稿では,潜在空間の特徴の白化に基づく自己教師付き表現学習(SSL)のための新しい損失関数を提案する。
我々の解は非対称なネットワークを必要とせず、概念的には単純である。
論文 参考訳(メタデータ) (2020-07-13T12:33:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。