論文の概要: Self-Supervised Visual Representation Learning from Hierarchical
Grouping
- arxiv url: http://arxiv.org/abs/2012.03044v1
- Date: Sat, 5 Dec 2020 14:54:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 12:05:29.160831
- Title: Self-Supervised Visual Representation Learning from Hierarchical
Grouping
- Title(参考訳): 階層的グループ化による自己監督型視覚表現学習
- Authors: Xiao Zhang, Michael Maire
- Abstract要約: 視覚表現学習を原始的な視覚グループ化機能からブートストラップする。
小さな教師付きデータセットは、このグループ化プリミティブをトレーニングするのに十分です。
ラベルなしの大きなデータセット全体にわたって、この学習プリミティブを適用し、階層的な領域構造を自動的に予測する。
- 参考スコア(独自算出の注目度): 29.51194352981303
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We create a framework for bootstrapping visual representation learning from a
primitive visual grouping capability. We operationalize grouping via a contour
detector that partitions an image into regions, followed by merging of those
regions into a tree hierarchy. A small supervised dataset suffices for training
this grouping primitive. Across a large unlabeled dataset, we apply this
learned primitive to automatically predict hierarchical region structure. These
predictions serve as guidance for self-supervised contrastive feature learning:
we task a deep network with producing per-pixel embeddings whose pairwise
distances respect the region hierarchy. Experiments demonstrate that our
approach can serve as state-of-the-art generic pre-training, benefiting
downstream tasks. We additionally explore applications to semantic region
search and video-based object instance tracking.
- Abstract(参考訳): プリミティブなビジュアルグループ化機能から視覚表現学習をブートストラップするフレームワークを開発した。
我々は、画像を領域に分割する輪郭検出器を介してグループ化を運用し、それらの領域をツリー階層にマージする。
このグループ化プリミティブをトレーニングするために、小さな教師付きデータセットが十分です。
ラベルなしの大きなデータセット全体にわたって、この学習プリミティブを適用し、階層的な領域構造を自動的に予測する。
これらの予測は、自己教師ありの対比的特徴学習のためのガイダンスとなる:我々は、ペアワイズ距離が領域階層を尊重するピクセル単位の埋め込みを生成するディープネットワークをタスクします。
実験により、我々のアプローチは、下流タスクの恩恵を受けながら、最先端の汎用的な事前トレーニングとして機能することを示した。
さらに,セマンティック領域検索やビデオベースのオブジェクトインスタンス追跡への応用も検討する。
関連論文リスト
- Mapping High-level Semantic Regions in Indoor Environments without
Object Recognition [50.624970503498226]
本研究では,屋内環境における埋め込みナビゲーションによる意味領域マッピング手法を提案する。
地域識別を実現するために,視覚言語モデルを用いて地図作成のためのシーン情報を提供する。
グローバルなフレームにエゴセントリックなシーン理解を投影することにより、提案手法は各場所の可能な領域ラベル上の分布としてのセマンティックマップを生成する。
論文 参考訳(メタデータ) (2024-03-11T18:09:50Z) - Self-Supervised Visual Representation Learning with Semantic Grouping [50.14703605659837]
我々は、未ラベルのシーン中心のデータから視覚表現を学習する問題に取り組む。
本研究では,データ駆動型セマンティックスロット,すなわちSlotConによる協調型セマンティックグルーピングと表現学習のためのコントラスト学習を提案する。
論文 参考訳(メタデータ) (2022-05-30T17:50:59Z) - Explaining Deep Convolutional Neural Networks via Latent Visual-Semantic
Filter Attention [7.237370981736913]
本稿では,既存の畳み込みニューラルネットワークを用いて,フィルタレベルでの潜在表現に関するテキスト記述を生成するフレームワークを提案する。
本手法は,学習データセットに定義されたカテゴリの組を超えて,学習したフィルタの新たな記述を生成することができることを示す。
また、教師なしデータセットバイアス分析のための新しい手法の応用を実証する。
論文 参考訳(メタデータ) (2022-04-10T04:57:56Z) - LEAD: Self-Supervised Landmark Estimation by Aligning Distributions of
Feature Similarity [49.84167231111667]
自己監督型ランドマーク検出における既存の研究は、画像から高密度(ピクセルレベルの)特徴表現を学習することに基づいている。
自己教師付き方式で高密度同変表現の学習を強化するアプローチを提案する。
機能抽出器にそのような先行性があることは,アノテーションの数が大幅に制限されている場合でも,ランドマーク検出に役立ちます。
論文 参考訳(メタデータ) (2022-04-06T17:48:18Z) - Self-supervised Audiovisual Representation Learning for Remote Sensing Data [96.23611272637943]
遠隔センシングにおける深層ニューラルネットワークの事前学習のための自己教師型アプローチを提案する。
ジオタグ付きオーディオ記録とリモートセンシングの対応を利用して、これは完全にラベルなしの方法で行われる。
提案手法は,既存のリモートセンシング画像の事前学習方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-08-02T07:50:50Z) - Exploiting the relationship between visual and textual features in
social networks for image classification with zero-shot deep learning [0.0]
本稿では,CLIPニューラルネットワークアーキテクチャの伝達可能な学習能力に基づく分類器アンサンブルを提案する。
本研究は,Placesデータセットのラベルによる画像分類タスクに基づいて,視覚的部分のみを考慮した実験である。
画像に関連付けられたテキストを考えることは、目標に応じて精度を向上させるのに役立つ。
論文 参考訳(メタデータ) (2021-07-08T10:54:59Z) - Self-supervised Segmentation via Background Inpainting [96.10971980098196]
移動可能なカメラで撮影された単一の画像で、自己教師付き検出とセグメンテーションのアプローチを導入する。
我々は、提案に基づくセグメンテーションネットワークのトレーニングに利用する自己教師付き損失関数を利用する。
本手法は,標準ベンチマークから視覚的に切り離された画像の人間の検出とセグメント化に応用し,既存の自己監督手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-11-11T08:34:40Z) - Unsupervised Image Classification for Deep Representation Learning [42.09716669386924]
埋め込みクラスタリングを使わずに、教師なしのイメージ分類フレームワークを提案する。
提案手法の有効性を証明するために,ImageNetデータセットの実験を行った。
論文 参考訳(メタデータ) (2020-06-20T02:57:06Z) - Semantically-Guided Representation Learning for Self-Supervised
Monocular Depth [40.49380547487908]
本稿では,自己教師付き表現学習を指導するために,事前訓練型セマンティックセマンティック・セマンティクス・ネットワークを利用した新しいアーキテクチャを提案する。
本手法は,全画素,細粒度細部,意味カテゴリーごとの自己教師型単眼深度予測のための技術の現状を改善した。
論文 参考訳(メタデータ) (2020-02-27T18:40:10Z) - Weakly-Supervised Semantic Segmentation by Iterative Affinity Learning [86.45526827323954]
弱教師付きセマンティックセグメンテーションは、トレーニングのためにピクセル単位のラベル情報が提供されないため、難しい課題である。
このようなペア関係を学習するための反復アルゴリズムを提案する。
本稿では,提案アルゴリズムが最先端手法に対して好適に動作することを示す。
論文 参考訳(メタデータ) (2020-02-19T10:32:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。