論文の概要: Provably Learning Object-Centric Representations
- arxiv url: http://arxiv.org/abs/2305.14229v1
- Date: Tue, 23 May 2023 16:44:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 14:46:24.724026
- Title: Provably Learning Object-Centric Representations
- Title(参考訳): 多分オブジェクト中心表現を学習する
- Authors: Jack Brady, Roland S. Zimmermann, Yash Sharma, Bernhard Sch\"olkopf,
Julius von K\"ugelgen, Wieland Brendel
- Abstract要約: 我々は、オブジェクト中心の表現がいつ、監督なしに確実に学習できるかを分析する。
そこで本研究では, 基本構造オブジェクト表現が可逆的, 構成的推論モデルによって識別可能であることを証明した。
我々は、既存の対象中心モデルに対して、我々の理論が予測力を持つ証拠を提供する。
- 参考スコア(独自算出の注目度): 25.152680199034215
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning structured representations of the visual world in terms of objects
promises to significantly improve the generalization abilities of current
machine learning models. While recent efforts to this end have shown promising
empirical progress, a theoretical account of when unsupervised object-centric
representation learning is possible is still lacking. Consequently,
understanding the reasons for the success of existing object-centric methods as
well as designing new theoretically grounded methods remains challenging. In
the present work, we analyze when object-centric representations can provably
be learned without supervision. To this end, we first introduce two assumptions
on the generative process for scenes comprised of several objects, which we
call compositionality and irreducibility. Under this generative process, we
prove that the ground-truth object representations can be identified by an
invertible and compositional inference model, even in the presence of
dependencies between objects. We empirically validate our results through
experiments on synthetic data. Finally, we provide evidence that our theory
holds predictive power for existing object-centric models by showing a close
correspondence between models' compositionality and invertibility and their
empirical identifiability.
- Abstract(参考訳): オブジェクトの観点から視覚世界の構造化表現を学ぶことは、現在の機械学習モデルの一般化能力を大幅に改善することを約束する。
この目的への最近の取り組みは有望な実証的進歩を示しているが、教師なしのオブジェクト中心表現学習がいつ可能かという理論的説明はまだ欠けている。
その結果、既存のオブジェクト指向手法の成功の理由と、新しい理論的根拠を持つ手法の設計は依然として困難である。
本研究では,オブジェクト中心表現が監視なしで確実に学習できるかを分析する。
この目的のために,まず,複数の対象からなるシーンの生成過程について,構成性と既約性という2つの仮定を導入する。
この生成過程の下では、オブジェクト間の依存関係が存在する場合でも、基底オブジェクト表現は可逆および合成推論モデルによって識別可能であることが証明される。
人工データを用いた実験により,実験結果を実証的に検証した。
最後に,本理論がモデルの構成性と可逆性と経験的識別可能性との密接な対応を示すことによって,既存の対象中心モデルに対する予測力を持つことを示す。
関連論文リスト
- Zero-Shot Object-Centric Representation Learning [72.43369950684057]
ゼロショット一般化のレンズによる現在の対象中心法について検討する。
8つの異なる合成および実世界のデータセットからなるベンチマークを導入する。
多様な実世界の画像のトレーニングにより、見えないシナリオへの転送性が向上することがわかった。
論文 参考訳(メタデータ) (2024-08-17T10:37:07Z) - Learning Discrete Concepts in Latent Hierarchical Models [73.01229236386148]
自然の高次元データから学習する概念は、ヒューマンアライメントと解釈可能な機械学習モデルの構築の可能性を秘めている。
我々は概念を階層的因果モデルを通して関連付けられた離散潜在因果変数として定式化する。
我々は、理論的な主張を合成データ実験で裏付ける。
論文 参考訳(メタデータ) (2024-06-01T18:01:03Z) - Learning Interpretable Concepts: Unifying Causal Representation Learning
and Foundation Models [51.43538150982291]
人間の解釈可能な概念をデータから学習する方法を研究する。
両分野からアイデアをまとめ、多様なデータから概念を確実に回収できることを示す。
論文 参考訳(メタデータ) (2024-02-14T15:23:59Z) - Robust and Controllable Object-Centric Learning through Energy-based
Models [95.68748828339059]
我々の研究は概念的にシンプルで一般的なアプローチであり、エネルギーベースモデルを通してオブジェクト中心の表現を学習する。
既存のアーキテクチャに容易に統合でき、高品質なオブジェクト中心表現を効果的に抽出できることを示す。
論文 参考訳(メタデータ) (2022-10-11T15:11:15Z) - Bridging the Gap to Real-World Object-Centric Learning [66.55867830853803]
自己教師付き方法で訓練されたモデルから特徴を再構成することは、完全に教師なしの方法でオブジェクト中心表現が生じるための十分な訓練信号であることを示す。
我々のアプローチであるDINOSAURは、シミュレーションデータ上で既存のオブジェクト中心学習モデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2022-09-29T15:24:47Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z) - Object Pursuit: Building a Space of Objects via Discriminative Weight
Generation [23.85039747700698]
視覚学習と理解のためのオブジェクト中心表現を継続的に学習するフレームワークを提案する。
我々は、オブジェクト中心の表現を学習しながら、オブジェクトとそれに対応するトレーニング信号の多様なバリエーションをサンプリングするために、インタラクションを活用する。
提案するフレームワークの重要な特徴について広範な研究を行い,学習した表現の特徴を分析した。
論文 参考訳(メタデータ) (2021-12-15T08:25:30Z) - Structured World Belief for Reinforcement Learning in POMDP [16.5072728047837]
本研究では,対象中心の信念状態の学習と推論のモデルである構造化世界信念を提案する。
実験では、オブジェクト中心の信念がフィルタリングと生成のためにより正確で堅牢な性能を提供することを示す。
論文 参考訳(メタデータ) (2021-07-19T01:47:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。