論文の概要: Unsupervised Part Discovery from Contrastive Reconstruction
- arxiv url: http://arxiv.org/abs/2111.06349v1
- Date: Thu, 11 Nov 2021 17:59:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-11-12 16:31:01.675992
- Title: Unsupervised Part Discovery from Contrastive Reconstruction
- Title(参考訳): コントラスト再建からの無監督部分発見
- Authors: Subhabrata Choudhury, Iro Laina, Christian Rupprecht, Andrea Vedaldi
- Abstract要約: 自己監督型視覚表現学習の目標は、強く伝達可能な画像表現を学習することである。
対象部分の発見とセグメンテーションに対する教師なしアプローチを提案する。
本手法は, 細粒度, 視覚的に異なるカテゴリ間でセマンティックな部分を生成する。
- 参考スコア(独自算出の注目度): 90.88501867321573
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The goal of self-supervised visual representation learning is to learn
strong, transferable image representations, with the majority of research
focusing on object or scene level. On the other hand, representation learning
at part level has received significantly less attention. In this paper, we
propose an unsupervised approach to object part discovery and segmentation and
make three contributions. First, we construct a proxy task through a set of
objectives that encourages the model to learn a meaningful decomposition of the
image into its parts. Secondly, prior work argues for reconstructing or
clustering pre-computed features as a proxy to parts; we show empirically that
this alone is unlikely to find meaningful parts; mainly because of their low
resolution and the tendency of classification networks to spatially smear out
information. We suggest that image reconstruction at the level of pixels can
alleviate this problem, acting as a complementary cue. Lastly, we show that the
standard evaluation based on keypoint regression does not correlate well with
segmentation quality and thus introduce different metrics, NMI and ARI, that
better characterize the decomposition of objects into parts. Our method yields
semantic parts which are consistent across fine-grained but visually distinct
categories, outperforming the state of the art on three benchmark datasets.
Code is available at the project page:
https://www.robots.ox.ac.uk/~vgg/research/unsup-parts/.
- Abstract(参考訳): 自己監督型視覚表現学習の目標は、オブジェクトやシーンレベルに焦点を当てた、強く伝達可能な画像表現を学習することである。
一方,部分レベルでの表現学習は注目度が大幅に低下している。
本稿では,対象部分の発見とセグメンテーションに対する教師なしアプローチを提案し,三つの貢献を行う。
まず、目的の集合を通してプロキシタスクを構築し、モデルがイメージをその部分へ有意義に分解することを奨励する。
第2に、事前計算された特徴の再構成やクラスタリングを部品の代用として論じており、低解像度と空間的に情報を抽出する分類ネットワークの傾向から、これだけで意味のある部分を見つけることは不可能であることを示す。
画素レベルでの画像再構成はこの問題を緩和し,補足的な手がかりとして機能することを示唆する。
最後に,キーポイント回帰に基づく標準評価はセグメンテーション品質とよく相関しないことを示した。
本手法は,細粒度だが視覚的に異なるカテゴリにまたがって一貫性のある意味的部品を産出し,3つのベンチマークデータセットにおける最先端技術に匹敵する。
コードはプロジェクトページで入手できる。 https://www.robots.ox.ac.uk/~vgg/research/unsup-parts/。
関連論文リスト
- Detection Based Part-level Articulated Object Reconstruction from Single RGBD Image [52.11275397911693]
本稿では,1枚のRGBD画像から複数の人工関節オブジェクトを再構成する,エンドツーエンドで訓練可能なクロスカテゴリ手法を提案する。
私たちは、あらかじめ定義された部分数で人工的なオブジェクトに焦点をあて、インスタンスレベルの潜在空間を学習することに依存する以前の作業から離れています。
提案手法は, 従来の作業では処理できない様々な構成された複数インスタンスの再構築に成功し, 形状再構成や運動学推定において, 先行の作業よりも優れていた。
論文 参考訳(メタデータ) (2025-04-04T05:08:04Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Towards Open-World Segmentation of Parts [16.056921233445784]
本稿では,クラスに依存しない部分分割タスクを提案する。
パートクラスなしでトレーニングされたモデルは、トレーニング時に見えない部分のローカライズとオブジェクトへのセグメンテーションを改善することができる、と私たちは主張する。
当社のアプローチでは,オープンワールドのパートセグメンテーションに向けた重要なステップとして,注目すべきかつ一貫した成果をあげています。
論文 参考訳(メタデータ) (2023-05-26T10:34:58Z) - Self-Supervised Learning of Object Parts for Semantic Segmentation [7.99536002595393]
我々は、オブジェクト部品の自己教師型学習がこの問題の解決策であると主張している。
本手法は3つのセマンティックセグメンテーションベンチマークの最先端を17%-3%超える。
論文 参考訳(メタデータ) (2022-04-27T17:55:17Z) - Towards Self-Supervised Learning of Global and Object-Centric
Representations [4.36572039512405]
自己スーパービジョンを用いた構造化対象中心表現の学習における重要な側面について論じる。
CLEVRデータセットに関するいくつかの実験を通じて、私たちの洞察を検証します。
論文 参考訳(メタデータ) (2022-03-11T15:18:47Z) - PartAfford: Part-level Affordance Discovery from 3D Objects [113.91774531972855]
パートレベルの空き地探索(PartAfford)の課題について紹介する。
対象物当たりの空きラベルのみを考慮し、(i)3D形状を部品に分解し、(ii)各部品が特定の空きカテゴリに対応する方法を検出する。
本稿では,パーセンテージ・セットの監督と幾何学的原始正規化のみを活用することで,パートレベルの表現を発見する新しい学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-28T02:58:36Z) - 3D Compositional Zero-shot Learning with DeCompositional Consensus [102.7571947144639]
我々は、部分的知識は観察されたオブジェクトクラスを超えて構成可能であるべきだと論じる。
本稿では、視覚から見えないオブジェクトクラスへの部分一般化の問題として、3D合成ゼロショット学習を提案する。
論文 参考訳(メタデータ) (2021-11-29T16:34:53Z) - Unsupervised Part Discovery by Unsupervised Disentanglement [10.664434993386525]
部分分割は、個々のピクセルのレベルにおける部分ローカライゼーションに関する情報を提供する。
大きなアノテーションのコストは、教師付きアルゴリズムのスケーラビリティを他のオブジェクトカテゴリに制限します。
我々の研究は、監督なしに意味的部分のセグメンテーションを発見できる可能性を示している。
論文 参考訳(メタデータ) (2020-09-09T12:34:37Z) - Mining Cross-Image Semantics for Weakly Supervised Semantic Segmentation [128.03739769844736]
2つのニューラルコアテンションを分類器に組み込んで、画像間のセマンティックな類似点と相違点をキャプチャする。
オブジェクトパターン学習の強化に加えて、コアテンションは他の関連する画像からのコンテキストを活用して、ローカライズマップの推論を改善することができる。
提案アルゴリズムは,これらすべての設定に対して新たな最先端性を設定し,その有効性と一般化性を示す。
論文 参考訳(メタデータ) (2020-07-03T21:53:46Z) - Interpretable and Accurate Fine-grained Recognition via Region Grouping [14.28113520947247]
微粒な視覚認識のための解釈可能な深層モデルを提案する。
私たちの手法の中核は、ディープニューラルネットワーク内での領域ベースの部分発見と帰属の統合です。
本研究は,分類タスクの最先端手法と比較した。
論文 参考訳(メタデータ) (2020-05-21T01:18:26Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。