論文の概要: Leverage Your Local and Global Representations: A New Self-Supervised
Learning Strategy
- arxiv url: http://arxiv.org/abs/2203.17205v1
- Date: Thu, 31 Mar 2022 17:31:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-01 15:46:58.394753
- Title: Leverage Your Local and Global Representations: A New Self-Supervised
Learning Strategy
- Title(参考訳): ローカルとグローバルな表現を活用する - 新しい自己監督型学習戦略
- Authors: Tong Zhang, Congpei Qiu, Wei Ke, Sabine S\"usstrunk, Mathieu Salzmann
- Abstract要約: 自己教師付き学習(SSL)手法は、同じ画像の異なる作物から抽出された特徴の類似性を最大化することにより、ビュー不変表現を学習することを目的としている。
本質的に、この戦略は、2つの作物が背景や小さな物体などの異なる画像情報を真に含んでいるという事実を無視しており、それによって学習された表現の多様性を抑える傾向にある。
そこで我々は,bf Local と bf Glbf Obal crops を明示的に理由づける,新たな自己教師型学習戦略 LoGo を導入する。
- 参考スコア(独自算出の注目度): 65.56679416475943
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised learning (SSL) methods aim to learn view-invariant
representations by maximizing the similarity between the features extracted
from different crops of the same image regardless of cropping size and content.
In essence, this strategy ignores the fact that two crops may truly contain
different image information, e.g., background and small objects, and thus tends
to restrain the diversity of the learned representations. %To this end, the
existing strategies typically employ loss functions that enforces the networks
to discard part of valuable information, e.g. background and small objects, and
sacrifices the diversity of representation. In this work, we address this issue
by introducing a new self-supervised learning strategy, LoGo, that explicitly
reasons about {\bf Lo}cal and {\bf G}l{\bf o}bal crops. To achieve view
invariance, LoGo encourages similarity between global crops from the same
image, as well as between a global and a local crop. However, to correctly
encode the fact that the content of smaller crops may differ entirely, LoGo
promotes two local crops to have dissimilar representations, while being close
to global crops. Our LoGo strategy can easily be applied to existing SSL
methods. Our extensive experiments on a variety of datasets and using different
self-supervised learning frameworks validate its superiority over existing
approaches. Noticeably, we achieve better results than supervised models on
transfer learning when using only $1/10$ of the data.
- Abstract(参考訳): 自己教師付き学習(SSL)法は,収穫量や内容に関わらず,同じ画像の異なる作物から抽出した特徴の類似性を最大化し,ビュー不変表現を学習することを目的としている。
本質的にこの戦略は、2つの作物が実際には背景や小さな物体といった異なる画像情報を含んでいるという事実を無視し、学習された表現の多様性を抑制する傾向がある。
この目的のために、既存の戦略は通常、ネットワークが貴重な情報(例えば背景や小さなオブジェクト)の一部を破棄し、表現の多様性を犠牲にする損失関数を用いる。
本研究では,新しい自己教師付き学習戦略「ロゴ」を導入することでこの問題に対処し,「bf lo}cal」と「bf g}l{\bf o}bal」の明確な理由を明らかにした。
ビューの不変性を達成するため、LoGoは同じ画像からグローバルな作物と、グローバルな作物とローカルな作物の類似性を奨励する。
しかし、より小さな作物の含有量が全く異なるかもしれないという事実を正しくエンコードするために、LoGoはグローバルな作物に近づきながら、異なる表現を持つ2つの地域作物を推進している。
私たちのLoGo戦略は、既存のSSLメソッドに簡単に適用できます。
さまざまなデータセットに関する広範な実験を行い、さまざまな自己教師付き学習フレームワークを使用して、既存のアプローチよりもその優位性を検証した。
明らかに、1/10ドルのデータを使う場合、転送学習のモデルを監督するよりも優れた結果が得られる。
関連論文リスト
- Epsilon: Exploring Comprehensive Visual-Semantic Projection for Multi-Label Zero-Shot Learning [23.96220607033524]
マルチラベルシナリオ(MLZSL)におけるゼロショット学習の課題について検討する。
観察されたクラスと補助的な知識に基づいて、サンプル内の複数の見えないクラスを認識するように訓練されている。
本稿では,エプシロンと呼ばれるMLZSLのための新しいビジュアル・セマンティック・フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-22T09:45:24Z) - SCONE-GAN: Semantic Contrastive learning-based Generative Adversarial
Network for an end-to-end image translation [18.93434486338439]
SCONE-GANはリアルで多様な風景画像を生成する学習に有効であることが示されている。
より現実的で多様な画像生成のために、スタイル参照画像を導入します。
画像から画像への変換と屋外画像のスタイリングのための提案アルゴリズムを検証した。
論文 参考訳(メタデータ) (2023-11-07T10:29:16Z) - Saliency Guided Contrastive Learning on Scene Images [71.07412958621052]
我々は、学習中のモデルの出力から導かれるサリエンシマップを活用し、差別的な領域を強調し、対照的な学習全体をガイドする。
提案手法は,画像上の自己教師学習の性能を,画像の線形評価において+1.1,+4.3,+2.2の精度で向上させる。
論文 参考訳(メタデータ) (2023-02-22T15:54:07Z) - Mugs: A Multi-Granular Self-Supervised Learning Framework [114.34858365121725]
マルチグラニュラー視覚特徴を明瞭に学習するための効果的なMUlti-Granular Self-supervised Learning (Mugs) フレームワークを提案する。
1)インスタンス識別監督(IDS)、2)新しいローカルグループ識別監督(LGDS)、3)グループ識別監督(GDS)である。
論文 参考訳(メタデータ) (2022-03-27T23:42:05Z) - Object-Aware Cropping for Self-Supervised Learning [21.79324121283122]
本研究では,通常のランダムな作付けに基づく自己教師型学習が,このようなデータセットでは不十分であることを示す。
対象提案アルゴリズムから得られた作物を、ランダムな作物の一方または両方に置き換えることを提案する。
オブジェクト認識トリミング(object-aware cropping)と呼ぶこのアプローチを用いることで、分類とオブジェクト検出ベンチマークにおいてシーントリミングよりも大幅に改善される。
論文 参考訳(メタデータ) (2021-12-01T07:23:37Z) - Remote Sensing Images Semantic Segmentation with General Remote Sensing
Vision Model via a Self-Supervised Contrastive Learning Method [13.479068312825781]
リモートセマンティックセグメンテーションのためのGlobal style and Local matching Contrastive Learning Network (GLCNet)を提案する。
具体的には、画像レベルの表現をより良く学習するために、グローバルスタイルのコントラストモジュールが使用される。
コントラストモジュールにマッチするローカル特徴は、セマンティックセグメンテーションに有用なローカル領域の表現を学習するために設計されている。
論文 参考訳(メタデータ) (2021-06-20T03:03:40Z) - PGL: Prior-Guided Local Self-supervised Learning for 3D Medical Image
Segmentation [87.50205728818601]
本稿では,潜在特徴空間における局所的一貫性を学習するPGL(PresideedGuided Local)自己教師モデルを提案する。
我々のPGLモデルは、局所領域の特異な表現を学習し、したがって構造情報を保持できる。
論文 参考訳(メタデータ) (2020-11-25T11:03:11Z) - Inter-Image Communication for Weakly Supervised Localization [77.2171924626778]
弱教師付きローカライゼーションは、画像レベルの監督のみを使用して対象対象領域を見つけることを目的としている。
我々は,より正確な物体位置を学習するために,異なる物体間の画素レベルの類似性を活用することを提案する。
ILSVRC検証セット上でトップ1のローカライズ誤差率45.17%を達成する。
論文 参考訳(メタデータ) (2020-08-12T04:14:11Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。