論文の概要: Semantics-Consistent Feature Search for Self-Supervised Visual
Representation Learning
- arxiv url: http://arxiv.org/abs/2212.06486v1
- Date: Tue, 13 Dec 2022 11:13:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 14:58:25.125677
- Title: Semantics-Consistent Feature Search for Self-Supervised Visual
Representation Learning
- Title(参考訳): 自己監督型視覚表現学習のためのセマンティック一貫性のある特徴探索
- Authors: Kaiyou Song, Shan Zhang, Zihao An, Zimeng Luo, Tong Wang, Jin Xie
- Abstract要約: 拡張手順中に異なる意味概念を含む望ましくないビューを構築するのは避けられない。
これにより表現の意味的一貫性が損なわれ、これらの拡張を特徴空間に無差別に近づけることになる。
本研究では,特徴量の増大と,この負の効果を緩和する新しい意味論的特徴探索(SCFS)手法を提案する。
- 参考スコア(独自算出の注目度): 15.242064747740116
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In contrastive self-supervised learning, the common way to learn
discriminative representation is to pull different augmented "views" of the
same image closer while pushing all other images further apart, which has been
proven to be effective. However, it is unavoidable to construct undesirable
views containing different semantic concepts during the augmentation procedure.
It would damage the semantic consistency of representation to pull these
augmentations closer in the feature space indiscriminately. In this study, we
introduce feature-level augmentation and propose a novel semantics-consistent
feature search (SCFS) method to mitigate this negative effect. The main idea of
SCFS is to adaptively search semantics-consistent features to enhance the
contrast between semantics-consistent regions in different augmentations. Thus,
the trained model can learn to focus on meaningful object regions, improving
the semantic representation ability. Extensive experiments conducted on
different datasets and tasks demonstrate that SCFS effectively improves the
performance of self-supervised learning and achieves state-of-the-art
performance on different downstream tasks.
- Abstract(参考訳): 対照的に自己監督的な学習では、識別的表現を学習する一般的な方法は、同じ画像の異なる拡張された「ビュー」を引き寄せながら、他の全ての画像をさらに切り離すことである。
しかし、拡張手順中に異なる意味概念を含む望ましくないビューを構築することは避けられない。
この拡張を特徴空間に無差別に近づけるために、表現の意味的一貫性を損なうことになる。
本研究では,特徴量の増大と,この負の効果を緩和する新しい意味論的特徴探索(SCFS)手法を提案する。
scfsの主な考え方は、セマンティクス一貫性のある特徴を適応的に検索し、異なる拡張でセマンティクス一貫性のある領域間のコントラストを強化することである。
したがって、トレーニングされたモデルは意味のあるオブジェクト領域に集中することを学び、セマンティックな表現能力を向上させることができる。
さまざまなデータセットやタスクで実施された大規模な実験は、SCFSが自己教師付き学習の性能を効果的に改善し、下流タスクにおける最先端のパフォーマンスを達成することを示した。
関連論文リスト
- Contrastive Learning of View-Invariant Representations for Facial
Expressions Recognition [27.75143621836449]
コントラスト学習に基づく新しいビュー不変FERフレームワークであるViewFXを提案する。
提案手法を2つの公開多視点顔表情認識データセット上で検証する。
論文 参考訳(メタデータ) (2023-11-12T14:05:09Z) - Focalized Contrastive View-invariant Learning for Self-supervised
Skeleton-based Action Recognition [16.412306012741354]
本稿では,FoCoViL(Focalized Contrastive View-invariant Learning)という自己教師型フレームワークを提案する。
FoCoViLは、視点が粗い整列された表現空間上のビュー固有情報を著しく抑制する。
アクションと共通のビュー不変プロパティを関連付け、異種プロパティを同時に分離する。
論文 参考訳(メタデータ) (2023-04-03T10:12:30Z) - Learning Common Rationale to Improve Self-Supervised Representation for
Fine-Grained Visual Recognition Problems [61.11799513362704]
我々は、インスタンスやクラスでよく見られる差別的手がかりを識別するための、追加のスクリーニングメカニズムの学習を提案する。
SSL目標から誘導されるGradCAMを単純に利用することで、共通な有理性検出器が学習可能であることを示す。
論文 参考訳(メタデータ) (2023-03-03T02:07:40Z) - Unsupervised Feature Clustering Improves Contrastive Representation
Learning for Medical Image Segmentation [18.75543045234889]
自己監督型インスタンス識別は、特徴表現を学習し、限られた医用画像アノテーションに対処する効果的なコントラスト的前提課題である。
本稿では,教師なし特徴クラスタリングを用いた自己教師付きコントラスト学習手法を提案する。
本手法は,これらの課題に対して,最先端の自己監督型コントラスト技術より優れる。
論文 参考訳(メタデータ) (2022-11-15T22:54:29Z) - Matching Multiple Perspectives for Efficient Representation Learning [0.0]
本稿では,自己教師型学習とマルチパースペクティブマッチング技術を組み合わせたアプローチを提案する。
我々は,同一オブジェクトの複数ビューと多種多様な自己教師付き事前学習アルゴリズムを組み合わせることで,オブジェクト分類性能が向上することを示す。
論文 参考訳(メタデータ) (2022-08-16T10:33:13Z) - Relational Self-Supervised Learning [84.08307840814044]
本稿では、異なるインスタンス間の関係をモデル化して表現を学習する新しいリレーショナル自己教師型学習(ReSSL)フレームワークを提案する。
提案手法では,異なるインスタンス間でのペアワイズ類似度の分布を,テクトitrelationmetricとして高めている。
実験の結果,提案したReSSLは,ネットワークアーキテクチャの異なる最先端手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-03-16T16:14:19Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z) - Learning to Relate Depth and Semantics for Unsupervised Domain
Adaptation [87.1188556802942]
教師なしドメイン適応(UDA)設定において,視覚的タスク関係を符号化してモデル性能を向上させる手法を提案する。
本稿では,意味的および深さ的予測のタスク依存性を符号化する新しいクロスタスク関係層(ctrl)を提案する。
さらに、セマンティック擬似ラベルを利用してターゲットドメインを監督する反復自己学習(ISL)トレーニングスキームを提案する。
論文 参考訳(メタデータ) (2021-05-17T13:42:09Z) - Heterogeneous Contrastive Learning: Encoding Spatial Information for
Compact Visual Representations [183.03278932562438]
本稿では,エンコーディング段階に空間情報を加えることで,対照的な目的と強いデータ拡張操作の間の学習の不整合を緩和する効果的な手法を提案する。
提案手法は,視覚表現の効率を向上し,自己指導型視覚表現学習の今後の研究を刺激する鍵となるメッセージを提供する。
論文 参考訳(メタデータ) (2020-11-19T16:26:25Z) - Can Semantic Labels Assist Self-Supervised Visual Representation
Learning? [194.1681088693248]
近隣環境におけるコントラスト調整(SCAN)という新しいアルゴリズムを提案する。
一連のダウンストリームタスクにおいて、SCANは従来の完全教師付きおよび自己教師付きメソッドよりも優れたパフォーマンスを達成する。
本研究は, セマンティックラベルが自己指導的手法の補助に有用であることを明らかにする。
論文 参考訳(メタデータ) (2020-11-17T13:25:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。