論文の概要: Efficient Iterative Amortized Inference for Learning Symmetric and
Disentangled Multi-Object Representations
- arxiv url: http://arxiv.org/abs/2106.03630v1
- Date: Mon, 7 Jun 2021 14:02:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-09 05:26:57.034956
- Title: Efficient Iterative Amortized Inference for Learning Symmetric and
Disentangled Multi-Object Representations
- Title(参考訳): 対称および不等角化多目的表現の学習のための効率的反復不定形推論
- Authors: Patrick Emami, Pan He, Sanjay Ranka, Anand Rangarajan
- Abstract要約: 本稿では,オブジェクト中心表現の教師なし学習のための効率的なフレームワークであるEfficientMORLを紹介する。
対称性と非絡み合いの両方を必要とすることによる最適化の課題は、高コスト反復的償却推論によって解決できることを示す。
標準のマルチオブジェクト・ベンチマークでは,強いオブジェクト分解と歪みを示しながら,ほぼ1桁の高速なトレーニングとテスト時間推定を実現している。
- 参考スコア(独自算出の注目度): 8.163697683448811
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Unsupervised multi-object representation learning depends on inductive biases
to guide the discovery of object-centric representations that generalize.
However, we observe that methods for learning these representations are either
impractical due to long training times and large memory consumption or forego
key inductive biases. In this work, we introduce EfficientMORL, an efficient
framework for the unsupervised learning of object-centric representations. We
show that optimization challenges caused by requiring both symmetry and
disentanglement can in fact be addressed by high-cost iterative amortized
inference by designing the framework to minimize its dependence on it. We take
a two-stage approach to inference: first, a hierarchical variational
autoencoder extracts symmetric and disentangled representations through
bottom-up inference, and second, a lightweight network refines the
representations with top-down feedback. The number of refinement steps taken
during training is reduced following a curriculum, so that at test time with
zero steps the model achieves 99.1% of the refined decomposition performance.
We demonstrate strong object decomposition and disentanglement on the standard
multi-object benchmark while achieving nearly an order of magnitude faster
training and test time inference over the previous state-of-the-art model.
- Abstract(参考訳): 教師なし多目的表現学習は、一般化する対象中心表現の発見を導く誘導バイアスに依存する。
しかし,これらの表現を学習する手法は,長時間の学習時間やメモリ消費の増大,あるいは先進的な帰納的バイアスなどにより実用的ではない。
本稿では,オブジェクト中心表現の教師なし学習のための効率的なフレームワークである efficientmorl を提案する。
対称性と乱れの両方を必要とすることによる最適化の課題は、その依存を最小限に抑えるためにフレームワークを設計することによって、コストのかかる反復的償却推論によって対処できることを示す。
まず,階層的変分オートエンコーダはボトムアップ推論によって対称表現と不等角表現を抽出し,次に,軽量ネットワークではトップダウンフィードバックで表現を洗練する。
トレーニング中の改良ステップの数はカリキュラムに従って減少し、テスト時にゼロステップで、洗練された分解性能の99.1%を達成する。
我々は、従来の最先端モデルよりもはるかに高速なトレーニングとテスト時間推定を実現しつつ、標準のマルチオブジェクトベンチマークで強力なオブジェクト分解と歪みを示す。
関連論文リスト
- Efficient Alternating Minimization Solvers for Wyner Multi-View
Unsupervised Learning [0.0]
本稿では,計算効率のよい解法の開発を可能にする2つの新しい定式化法を提案する。
提案した解法は, 計算効率, 理論的収束保証, ビュー数による局所最小値複雑性, 最先端技術と比較して, 例外的な精度を提供する。
論文 参考訳(メタデータ) (2023-03-28T10:17:51Z) - Understanding and Constructing Latent Modality Structures in Multi-modal
Representation Learning [53.68371566336254]
優れたパフォーマンスの鍵は、完全なモダリティアライメントではなく、有意義な潜在モダリティ構造にある、と我々は主張する。
具体的には,1)モダリティ内正規化のための深い特徴分離損失,2)モダリティ間正規化のためのブラウン橋損失,3)モダリティ内正規化およびモダリティ間正規化のための幾何学的整合損失を設計する。
論文 参考訳(メタデータ) (2023-03-10T14:38:49Z) - Understanding Self-Predictive Learning for Reinforcement Learning [61.62067048348786]
強化学習のための自己予測学習の学習ダイナミクスについて検討する。
本稿では,2つの表現を同時に学習する新しい自己予測アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-06T20:43:37Z) - Synergies between Disentanglement and Sparsity: Generalization and
Identifiability in Multi-Task Learning [79.83792914684985]
我々は,最大スパース基底予測器が不整合表現をもたらす条件を提供する新しい識別可能性の結果を証明した。
この理論的な結果から,両レベル最適化問題に基づくアンタングル表現学習の実践的アプローチを提案する。
論文 参考訳(メタデータ) (2022-11-26T21:02:09Z) - Self-Supervised Learning via Maximum Entropy Coding [57.56570417545023]
本稿では,表現の構造を明示的に最適化する原理的目的として,最大エントロピー符号化(MEC)を提案する。
MECは、特定のプリテキストタスクに基づいて、以前のメソッドよりもより一般化可能な表現を学ぶ。
ImageNetリニアプローブだけでなく、半教師付き分類、オブジェクト検出、インスタンスセグメンテーション、オブジェクトトラッキングなど、さまざまなダウンストリームタスクに対して一貫して最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-10-20T17:58:30Z) - Making Linear MDPs Practical via Contrastive Representation Learning [101.75885788118131]
マルコフ決定過程(MDP)における次元性の呪いに、低ランク表現を利用することで対処することが一般的である。
本稿では,効率的な表現学習を可能にしつつ,正規化を自動的に保証する線形MDPの代替的定義について考察する。
いくつかのベンチマークにおいて、既存の最先端モデルベースおよびモデルフリーアルゴリズムよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-14T18:18:02Z) - Self-Supervised Consistent Quantization for Fully Unsupervised Image
Retrieval [17.422973861218182]
教師なし画像検索は、高価なデータアノテーションを使わずに効率的な検索システムを学習することを目的としている。
近年の進歩は、視覚的特徴と量子化符号を協調的に最適化するために、深いモデルをスクラッチからトレーニングすることを目的とした、完全な教師なし画像検索を提案する。
本稿では, 部分一貫した量子化と大域一貫した量子化からなる, 完全教師なし画像検索のための, 自己教師付き一貫した量子化手法を提案する。
論文 参考訳(メタデータ) (2022-06-20T14:39:59Z) - Deep Dimension Reduction for Supervised Representation Learning [51.10448064423656]
本研究は,本質的な特徴を持つ学習表現の次元削減手法を提案する。
提案手法は, 十分次元還元法の非パラメトリック一般化である。
推定された深度非パラメトリック表現は、その余剰リスクが0に収束するという意味で一貫したものであることを示す。
論文 参考訳(メタデータ) (2020-06-10T14:47:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。