論文の概要: Semantics-Consistent Feature Search for Self-Supervised Visual
Representation Learning
- arxiv url: http://arxiv.org/abs/2212.06486v1
- Date: Tue, 13 Dec 2022 11:13:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 14:58:25.125677
- Title: Semantics-Consistent Feature Search for Self-Supervised Visual
Representation Learning
- Title(参考訳): 自己監督型視覚表現学習のためのセマンティック一貫性のある特徴探索
- Authors: Kaiyou Song, Shan Zhang, Zihao An, Zimeng Luo, Tong Wang, Jin Xie
- Abstract要約: 拡張手順中に異なる意味概念を含む望ましくないビューを構築するのは避けられない。
これにより表現の意味的一貫性が損なわれ、これらの拡張を特徴空間に無差別に近づけることになる。
本研究では,特徴量の増大と,この負の効果を緩和する新しい意味論的特徴探索(SCFS)手法を提案する。
- 参考スコア(独自算出の注目度): 15.242064747740116
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In contrastive self-supervised learning, the common way to learn
discriminative representation is to pull different augmented "views" of the
same image closer while pushing all other images further apart, which has been
proven to be effective. However, it is unavoidable to construct undesirable
views containing different semantic concepts during the augmentation procedure.
It would damage the semantic consistency of representation to pull these
augmentations closer in the feature space indiscriminately. In this study, we
introduce feature-level augmentation and propose a novel semantics-consistent
feature search (SCFS) method to mitigate this negative effect. The main idea of
SCFS is to adaptively search semantics-consistent features to enhance the
contrast between semantics-consistent regions in different augmentations. Thus,
the trained model can learn to focus on meaningful object regions, improving
the semantic representation ability. Extensive experiments conducted on
different datasets and tasks demonstrate that SCFS effectively improves the
performance of self-supervised learning and achieves state-of-the-art
performance on different downstream tasks.
- Abstract(参考訳): 対照的に自己監督的な学習では、識別的表現を学習する一般的な方法は、同じ画像の異なる拡張された「ビュー」を引き寄せながら、他の全ての画像をさらに切り離すことである。
しかし、拡張手順中に異なる意味概念を含む望ましくないビューを構築することは避けられない。
この拡張を特徴空間に無差別に近づけるために、表現の意味的一貫性を損なうことになる。
本研究では,特徴量の増大と,この負の効果を緩和する新しい意味論的特徴探索(SCFS)手法を提案する。
scfsの主な考え方は、セマンティクス一貫性のある特徴を適応的に検索し、異なる拡張でセマンティクス一貫性のある領域間のコントラストを強化することである。
したがって、トレーニングされたモデルは意味のあるオブジェクト領域に集中することを学び、セマンティックな表現能力を向上させることができる。
さまざまなデータセットやタスクで実施された大規模な実験は、SCFSが自己教師付き学習の性能を効果的に改善し、下流タスクにおける最先端のパフォーマンスを達成することを示した。
関連論文リスト
- Semi-supervised Semantic Segmentation for Remote Sensing Images via Multi-scale Uncertainty Consistency and Cross-Teacher-Student Attention [59.19580789952102]
本稿では,RS画像セマンティックセグメンテーションタスクのための,新しい半教師付きマルチスケール不確かさとクロスTeacher-Student Attention(MUCA)モデルを提案する。
MUCAは、マルチスケールの不確実性整合正則化を導入することにより、ネットワークの異なる層における特徴写像間の整合性を制限する。
MUCAは学生ネットワークの誘導にクロス教師・学生の注意機構を使用し、学生ネットワークにより差別的な特徴表現を構築するよう誘導する。
論文 参考訳(メタデータ) (2025-01-18T11:57:20Z) - PP-SSL : Priority-Perception Self-Supervised Learning for Fine-Grained Recognition [28.863121559446665]
自己教師付き学習は、将来性のある結果とともに、きめ細かい視覚認識において出現している。
既存の自己教師型学習手法は、自己教師型タスクにおける無関係なパターンに影響を受けやすい。
本稿では,PP-SSL と表記される新しい優先度知覚自己監視学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-28T15:47:41Z) - Feature Augmentation for Self-supervised Contrastive Learning: A Closer Look [28.350278251132078]
本稿では,機能拡張(Feature Augmentation)として知られる機能空間でデータ拡張を行う統一フレームワークを提案する。
この戦略はドメインに依存しないため、元のものと同様の機能が追加され、データの多様性が向上する。
論文 参考訳(メタデータ) (2024-10-16T09:25:11Z) - A Probabilistic Model Behind Self-Supervised Learning [53.64989127914936]
自己教師付き学習(SSL)では、アノテートラベルなしで補助的なタスクを通じて表現が学習される。
自己教師型学習のための生成潜在変数モデルを提案する。
対照的な方法を含む識別的SSLのいくつかのファミリーは、表現に匹敵する分布を誘導することを示した。
論文 参考訳(メタデータ) (2024-02-02T13:31:17Z) - Focalized Contrastive View-invariant Learning for Self-supervised
Skeleton-based Action Recognition [16.412306012741354]
本稿では,FoCoViL(Focalized Contrastive View-invariant Learning)という自己教師型フレームワークを提案する。
FoCoViLは、視点が粗い整列された表現空間上のビュー固有情報を著しく抑制する。
アクションと共通のビュー不変プロパティを関連付け、異種プロパティを同時に分離する。
論文 参考訳(メタデータ) (2023-04-03T10:12:30Z) - Learning Common Rationale to Improve Self-Supervised Representation for
Fine-Grained Visual Recognition Problems [61.11799513362704]
我々は、インスタンスやクラスでよく見られる差別的手がかりを識別するための、追加のスクリーニングメカニズムの学習を提案する。
SSL目標から誘導されるGradCAMを単純に利用することで、共通な有理性検出器が学習可能であることを示す。
論文 参考訳(メタデータ) (2023-03-03T02:07:40Z) - Unsupervised Feature Clustering Improves Contrastive Representation
Learning for Medical Image Segmentation [18.75543045234889]
自己監督型インスタンス識別は、特徴表現を学習し、限られた医用画像アノテーションに対処する効果的なコントラスト的前提課題である。
本稿では,教師なし特徴クラスタリングを用いた自己教師付きコントラスト学習手法を提案する。
本手法は,これらの課題に対して,最先端の自己監督型コントラスト技術より優れる。
論文 参考訳(メタデータ) (2022-11-15T22:54:29Z) - Weak Augmentation Guided Relational Self-Supervised Learning [80.0680103295137]
本稿では、異なるインスタンス間の関係をモデル化して表現を学習する新しいリレーショナル自己教師型学習(ReSSL)フレームワークを提案する。
提案手法では,異なるインスタンス間でのペアワイズ類似度の分布を,テクトitrelationmetricとして高めている。
実験の結果,提案したReSSLは,ネットワークアーキテクチャの異なる最先端手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-03-16T16:14:19Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z) - Heterogeneous Contrastive Learning: Encoding Spatial Information for
Compact Visual Representations [183.03278932562438]
本稿では,エンコーディング段階に空間情報を加えることで,対照的な目的と強いデータ拡張操作の間の学習の不整合を緩和する効果的な手法を提案する。
提案手法は,視覚表現の効率を向上し,自己指導型視覚表現学習の今後の研究を刺激する鍵となるメッセージを提供する。
論文 参考訳(メタデータ) (2020-11-19T16:26:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。