論文の概要: Mix-up Self-Supervised Learning for Contrast-agnostic Applications
- arxiv url: http://arxiv.org/abs/2204.00901v1
- Date: Sat, 2 Apr 2022 16:58:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-07 05:37:05.891258
- Title: Mix-up Self-Supervised Learning for Contrast-agnostic Applications
- Title(参考訳): コントラスト非依存アプリケーションのための混合自己教師付き学習
- Authors: Yichen Zhang, Yifang Yin, Ying Zhang, Roger Zimmermann
- Abstract要約: コントラストに依存しないアプリケーションのための,最初の混合型自己教師型学習フレームワークを提案する。
クロスドメイン・ミックスアップに基づく画像間の低分散に対処し、画像再構成と透明性予測に基づくプレテキストタスクを構築する。
- 参考スコア(独自算出の注目度): 33.807005669824136
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Contrastive self-supervised learning has attracted significant research
attention recently. It learns effective visual representations from unlabeled
data by embedding augmented views of the same image close to each other while
pushing away embeddings of different images. Despite its great success on
ImageNet classification, COCO object detection, etc., its performance degrades
on contrast-agnostic applications, e.g., medical image classification, where
all images are visually similar to each other. This creates difficulties in
optimizing the embedding space as the distance between images is rather small.
To solve this issue, we present the first mix-up self-supervised learning
framework for contrast-agnostic applications. We address the low variance
across images based on cross-domain mix-up and build the pretext task based on
two synergistic objectives: image reconstruction and transparency prediction.
Experimental results on two benchmark datasets validate the effectiveness of
our method, where an improvement of 2.5% ~ 7.4% in top-1 accuracy was obtained
compared to existing self-supervised learning methods.
- Abstract(参考訳): 対照的な自己教師付き学習は近年、大きな研究の注目を集めている。
ラベルのないデータから効果的な視覚的表現を学習し、同じ画像の拡張ビューを互いに近接させて、異なる画像の埋め込みを押し出す。
ImageNet分類、COCOオブジェクト検出などにおいて大きな成功を収めたにもかかわらず、その性能はコントラスト非依存のアプリケーション、例えば、すべての画像が視覚的に似ている医療画像分類に低下している。
これにより、画像間の距離がかなり小さいため、埋め込み空間の最適化が困難になる。
この問題を解決するために,コントラスト非依存アプリケーションのための,最初のミックスアップ自己教師付き学習フレームワークを提案する。
領域間混合に基づく画像間の低分散に対処し、画像再構成と透明性予測という2つの相乗的目的に基づいて、プレテキストタスクを構築する。
その結果,従来の自己教師型学習法と比較して2.5%~7.4%の精度向上が得られた。
関連論文リスト
- Classification of Breast Cancer Histopathology Images using a Modified Supervised Contrastive Learning Method [4.303291247305105]
モデルロバスト性を高めるために、画像レベルラベルとドメイン固有の拡張の両方を活用することで教師付きコントラスト学習法を改善する。
乳癌の病理組織像から得られたBreakHisデータセットについて検討した。
この改良は93.63%の絶対精度に対応し、データの特性を利用してより適切な表現空間を学習するアプローチの有効性を強調した。
論文 参考訳(メタデータ) (2024-05-06T17:06:11Z) - Improving Human-Object Interaction Detection via Virtual Image Learning [68.56682347374422]
人間-物体相互作用(Human-Object Interaction、HOI)は、人間と物体の相互作用を理解することを目的としている。
本稿では,仮想画像学習(Virtual Image Leaning, VIL)による不均衡分布の影響を軽減することを提案する。
ラベルからイメージへの新たなアプローチであるMultiple Steps Image Creation (MUSIC)が提案され、実際の画像と一貫した分布を持つ高品質なデータセットを作成する。
論文 参考訳(メタデータ) (2023-08-04T10:28:48Z) - Contrastive Learning of Visual-Semantic Embeddings [4.7464518249313805]
本稿では,正規化されたクロスエントロピーに基づく2つの損失関数を提案する。
本研究は,画像・テキスト・テキスト・画像検索タスクにおける既存のビジュアル・セマンティックな埋め込み手法と比較する。
論文 参考訳(メタデータ) (2021-10-17T17:28:04Z) - Learning Contrastive Representation for Semantic Correspondence [150.29135856909477]
セマンティックマッチングのためのマルチレベルコントラスト学習手法を提案する。
画像レベルのコントラスト学習は、畳み込み特徴が類似したオブジェクト間の対応を見出すための鍵となる要素であることを示す。
論文 参考訳(メタデータ) (2021-09-22T18:34:14Z) - Object-aware Contrastive Learning for Debiased Scene Representation [74.30741492814327]
オブジェクトを自己教師型でローカライズする,オブジェクト認識型コントラスト学習フレームワークを開発した。
また、コントラCAM、オブジェクト認識型乱作、背景混合に基づく2つのデータ拡張を導入し、コントラスト型自己教師型学習における文脈バイアスと背景バイアスを低減した。
論文 参考訳(メタデータ) (2021-07-30T19:24:07Z) - AugNet: End-to-End Unsupervised Visual Representation Learning with
Image Augmentation [3.6790362352712873]
我々は、未ラベル画像の集合から画像特徴を学習するための新しいディープラーニングトレーニングパラダイムであるAugNetを提案する。
実験により,低次元空間における画像の表現が可能であることを実証した。
多くのディープラーニングベースの画像検索アルゴリズムとは異なり、我々のアプローチは外部アノテーション付きデータセットへのアクセスを必要としない。
論文 参考訳(メタデータ) (2021-06-11T09:02:30Z) - With a Little Help from My Friends: Nearest-Neighbor Contrastive
Learning of Visual Representations [87.72779294717267]
対比損失で最も近い隣り合わせを正として使用すると、ImageNet分類でパフォーマンスが大幅に向上します。
提案手法が複雑なデータ拡張に依存しないことを実証的に証明する。
論文 参考訳(メタデータ) (2021-04-29T17:56:08Z) - Dense Contrastive Learning for Self-Supervised Visual Pre-Training [102.15325936477362]
入力画像の2つのビュー間の画素レベルでの差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分)を最適化することにより自己教師学習を実現する。
ベースライン法であるMoCo-v2と比較すると,計算オーバーヘッドは1%遅かった。
論文 参考訳(メタデータ) (2020-11-18T08:42:32Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。