論文の概要: Disassembling Object Representations without Labels
- arxiv url: http://arxiv.org/abs/2004.01426v1
- Date: Fri, 3 Apr 2020 08:23:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 04:37:48.370474
- Title: Disassembling Object Representations without Labels
- Title(参考訳): ラベルのないオブジェクト表現の分解
- Authors: Zunlei Feng, Xinchao Wang, Yongming He, Yike Yuan, Xin Gao, Mingli
Song
- Abstract要約: 本研究では,オブジェクト表現を分解する新しい表現学習タスクについて検討する。
分解は、学習した表現におけるカテゴリ固有のモジュラリティを可能にする。
我々は、非教師なし分解オブジェクト表現(UDOR)という、非教師なしの非教師なしアプローチを提案する。
- 参考スコア(独自算出の注目度): 75.2215716328001
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study a new representation-learning task, which we termed
as disassembling object representations. Given an image featuring multiple
objects, the goal of disassembling is to acquire a latent representation, of
which each part corresponds to one category of objects. Disassembling thus
finds its application in a wide domain such as image editing and few- or
zero-shot learning, as it enables category-specific modularity in the learned
representations. To this end, we propose an unsupervised approach to achieving
disassembling, named Unsupervised Disassembling Object Representation (UDOR).
UDOR follows a double auto-encoder architecture, in which a fuzzy
classification and an object-removing operation are imposed. The fuzzy
classification constrains each part of the latent representation to encode
features of up to one object category, while the object-removing, combined with
a generative adversarial network, enforces the modularity of the
representations and integrity of the reconstructed image. Furthermore, we
devise two metrics to respectively measure the modularity of disassembled
representations and the visual integrity of reconstructed images. Experimental
results demonstrate that the proposed UDOR, despited unsupervised, achieves
truly encouraging results on par with those of supervised methods.
- Abstract(参考訳): 本稿では,オブジェクト表現を分解する新しい表現学習タスクについて検討する。
複数のオブジェクトを特徴とする画像が与えられた場合、分解の目標は、各部分が1つのオブジェクトのカテゴリに対応する潜在表現を取得することである。
これにより、画像編集や少数あるいはゼロショット学習といった広い領域において、学習表現におけるカテゴリ固有のモジュラリティを実現することができる。
そこで本稿では,UDOR (Unsupervised Disassembling Object Representation) という,非教師なしのオブジェクト表現手法を提案する。
UDORは二重自動エンコーダアーキテクチャに従い、ファジィ分類とオブジェクト除去操作が課される。
ファジィ分類は、潜在表現の各部分を制約して、最大1つのオブジェクトカテゴリの特徴をエンコードするが、オブジェクト削除は、生成的な敵ネットワークと組み合わせて、再構成された画像の表現のモジュラリティと整合性を強制する。
さらに,2つの指標を考案し,分解表現のモジュラリティと再構成画像の視覚的完全性を測定した。
実験の結果, 提案手法は教師なしであるにもかかわらず, 教師付き手法と同等の結果が得られることがわかった。
関連論文リスト
- Neural Constraint Satisfaction: Hierarchical Abstraction for
Combinatorial Generalization in Object Rearrangement [75.9289887536165]
基礎となるエンティティを明らかにするための階層的抽象化手法を提案する。
本研究では,エージェントのモデルにおける実体の状態の介入と,環境中の物体に作用する状態の対応関係を学習する方法を示す。
この対応を利用して、オブジェクトの異なる数や構成に一般化する制御法を開発する。
論文 参考訳(メタデータ) (2023-03-20T18:19:36Z) - Understanding Self-Supervised Pretraining with Part-Aware Representation
Learning [88.45460880824376]
本研究では,自己教師型表現事前学習手法がパート認識表現を学習する能力について検討する。
その結果,完全教師付きモデルはオブジェクトレベルの認識において自己教師付きモデルよりも優れていた。
論文 参考訳(メタデータ) (2023-01-27T18:58:42Z) - Image Segmentation-based Unsupervised Multiple Objects Discovery [1.7674345486888503]
教師なしオブジェクト発見は、イメージ内のオブジェクトをローカライズすることを目的としている。
我々は,複数のオブジェクトの発見に対して,完全に教師なしのボトムアップアプローチを提案する。
我々は、教師なしクラス非依存オブジェクト検出と教師なしイメージセグメンテーションの両方に対して、最先端の結果を提供する。
論文 参考訳(メタデータ) (2022-12-20T09:48:24Z) - Structure-Guided Image Completion with Image-level and Object-level Semantic Discriminators [97.12135238534628]
複雑な意味論やオブジェクトの生成を改善するために,セマンティック・ディミネータとオブジェクトレベル・ディミネータからなる学習パラダイムを提案する。
特に、セマンティック・ディミネーターは、事前学習された視覚的特徴を利用して、生成された視覚概念の現実性を改善する。
提案手法は, 生成品質を著しく向上させ, 各種タスクの最先端化を実現する。
論文 参考訳(メタデータ) (2022-12-13T01:36:56Z) - Compositional Scene Modeling with Global Object-Centric Representations [44.43366905943199]
人間は、メモリ内の標準画像に基づいて閉塞された部分を完了させることで、たとえ閉塞物が存在するとしても、同じ物体を容易に識別することができる。
本稿では,オブジェクトの標準画像のグローバルな表現を,監督なしに推測する合成シーンモデリング手法を提案する。
論文 参考訳(メタデータ) (2022-11-21T14:36:36Z) - On the robustness of self-supervised representations for multi-view
object classification [0.0]
インスタンス識別の目的に基づく自己教師型表現は、オブジェクトの視点や視点の変化に対してより堅牢なオブジェクトの表現に繋がることを示す。
自己監督型表現は、オブジェクトの視点に対してより堅牢であり、新しい視点からオブジェクトの認識を促進するオブジェクトに関するより関連する情報をエンコードしているように見える。
論文 参考訳(メタデータ) (2022-07-27T17:24:55Z) - Self-Supervised Learning of Object Parts for Semantic Segmentation [7.99536002595393]
我々は、オブジェクト部品の自己教師型学習がこの問題の解決策であると主張している。
本手法は3つのセマンティックセグメンテーションベンチマークの最先端を17%-3%超える。
論文 参考訳(メタデータ) (2022-04-27T17:55:17Z) - Complex-Valued Autoencoders for Object Discovery [62.26260974933819]
本稿では,オブジェクト中心表現に対する分散アプローチとして,複合オートエンコーダを提案する。
このシンプルで効率的なアプローチは、単純なマルチオブジェクトデータセット上の等価な実数値オートエンコーダよりも、より良い再構成性能を実現することを示す。
また、2つのデータセット上のSlotAttentionモデルと競合しないオブジェクト発見性能を実現し、SlotAttentionが失敗する第3のデータセットでオブジェクトをアンタングルする。
論文 参考訳(メタデータ) (2022-04-05T09:25:28Z) - Disentangling What and Where for 3D Object-Centric Representations
Through Active Inference [4.088019409160893]
本稿では、時間とともに新しいオブジェクトカテゴリを学習できるアクティブ推論エージェントを提案する。
我々のエージェントは、教師なしの方法で、多くのオブジェクトカテゴリの表現を学習できることを示す。
我々は,エージェントが画素ベースのレンダリングから与えられたポーズでオブジェクトを検索できるエンドツーエンドでシステムを検証する。
論文 参考訳(メタデータ) (2021-08-26T12:49:07Z) - Self-supervised Single-view 3D Reconstruction via Semantic Consistency [142.71430568330172]
対象物の形状, テクスチャ, カメラポーズを予測できる, 自己監督型, 単視点3D再構成モデルを学習する。
提案手法では,手動で注釈付けしたキーポイント,オブジェクトのマルチビューイメージ,あるいは事前の3Dテンプレートなど,3Dの監督を必要としない。
論文 参考訳(メタデータ) (2020-03-13T20:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。