論文の概要: Hierarchical Relational Inference
- arxiv url: http://arxiv.org/abs/2010.03635v2
- Date: Mon, 14 Dec 2020 22:14:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 21:52:04.207990
- Title: Hierarchical Relational Inference
- Title(参考訳): 階層的関係推論
- Authors: Aleksandar Stani\'c, Sjoerd van Steenkiste, J\"urgen Schmidhuber
- Abstract要約: 本稿では,物体を局所的に独立に振る舞うが,よりグローバルに一括して振る舞う部分の階層としてモデル化する物理推論手法を提案する。
従来の手法とは異なり,本手法は生画像から直接教師なしの方法で学習する。
複数のレベルの抽象化を明確に区別し、合成ビデオと実世界のビデオのモデリングにおいて、強力なベースラインを超えて改善する。
- 参考スコア(独自算出の注目度): 80.00374471991246
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Common-sense physical reasoning in the real world requires learning about the
interactions of objects and their dynamics. The notion of an abstract object,
however, encompasses a wide variety of physical objects that differ greatly in
terms of the complex behaviors they support. To address this, we propose a
novel approach to physical reasoning that models objects as hierarchies of
parts that may locally behave separately, but also act more globally as a
single whole. Unlike prior approaches, our method learns in an unsupervised
fashion directly from raw visual images to discover objects, parts, and their
relations. It explicitly distinguishes multiple levels of abstraction and
improves over a strong baseline at modeling synthetic and real-world videos.
- Abstract(参考訳): 現実世界における常識的な物理的推論は、オブジェクトの相互作用とそのダイナミクスについて学ぶ必要がある。
しかし、抽象オブジェクトの概念は、それらがサポートする複雑な振る舞いの観点で大きく異なる様々な物理オブジェクトを含んでいる。
そこで本研究では,物体を局所的に独立に振る舞うが,よりグローバルに一括して振る舞う部分の階層としてモデル化する物理推論手法を提案する。
従来の手法とは異なり,本手法は生画像から直接教師なしの方法で学習し,対象,部品,それらの関係を探索する。
複数の抽象化レベルを明確に区別し、合成ビデオや現実世界ビデオのモデリングにおいて、強力なベースラインを越えて改善する。
関連論文リスト
- Systematic Visual Reasoning through Object-Centric Relational
Abstraction [5.914610036560008]
対象と抽象的関係の明示的な表現を抽出するモデルであるOCRAを紹介する。
複雑な視覚ディスプレイを含むタスクにおいて、強力な体系的な一般化を実現する。
論文 参考訳(メタデータ) (2023-06-04T22:47:17Z) - Provably Learning Object-Centric Representations [25.152680199034215]
我々は、オブジェクト中心の表現がいつ、監督なしに確実に学習できるかを分析する。
そこで本研究では, 基本構造オブジェクト表現が可逆的, 構成的推論モデルによって識別可能であることを証明した。
我々は、既存の対象中心モデルに対して、我々の理論が予測力を持つ証拠を提供する。
論文 参考訳(メタデータ) (2023-05-23T16:44:49Z) - Robust and Controllable Object-Centric Learning through Energy-based
Models [95.68748828339059]
我々の研究は概念的にシンプルで一般的なアプローチであり、エネルギーベースモデルを通してオブジェクト中心の表現を学習する。
既存のアーキテクチャに容易に統合でき、高品質なオブジェクト中心表現を効果的に抽出できることを示す。
論文 参考訳(メタデータ) (2022-10-11T15:11:15Z) - Self-supervised Neural Articulated Shape and Appearance Models [18.99030452836038]
そこで本稿では, 物体の形状, 外観, 動きの表現を学習するための新しい手法を提案する。
我々の表現は、これらの意味的次元を独立的に制御できる形状、外観、調音符号を学習する。
論文 参考訳(メタデータ) (2022-05-17T17:50:47Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - Watch It Move: Unsupervised Discovery of 3D Joints for Re-Posing of
Articulated Objects [73.23249640099516]
複数視点からの移動を観察することで,これまで見えなかった物体の外観と構造の両方を学習する。
我々の洞察では、互いに相対的に動く隣り合う部分は関節で繋がらなければならない。
本手法は,四足歩行から単腕ロボット,人間に至るまで,さまざまな構造に対して有効であることを示す。
論文 参考訳(メタデータ) (2021-12-21T16:37:48Z) - Constellation: Learning relational abstractions over objects for
compositional imagination [64.99658940906917]
静的な視覚シーンのリレーショナル抽象化を学習するネットワークであるConstellationを紹介する。
この研究は、視覚的関係を明確に表現し、それらを複雑な認知手続きに使用するための第一歩である。
論文 参考訳(メタデータ) (2021-07-23T11:59:40Z) - RELATE: Physically Plausible Multi-Object Scene Synthesis Using
Structured Latent Spaces [77.07767833443256]
RELATEは、複数の対話オブジェクトの物理的に可視なシーンとビデオを生成することを学習するモデルである。
オブジェクト中心生成モデリングにおける最先端の手法とは対照的に、RELATEは自然に動的なシーンに拡張し、高い視覚的忠実度のビデオを生成する。
論文 参考訳(メタデータ) (2020-07-02T17:27:27Z) - Towards causal generative scene models via competition of experts [26.181132737834826]
生成モデル(エキスパート)のアンサンブルを訓練することでモジュラリティを促進させる帰納的バイアスを用いた代替手法を提案する。
トレーニング中、専門家はシーンの一部を説明するために競い合い、それによって異なるオブジェクトクラスを専門とし、オブジェクトは複数のシーンにまたがる部分として認識される。
我々のモデルは、個々のオブジェクトの制御可能なサンプリングと、物理的に妥当な方法で専門家の再結合を可能にします。
論文 参考訳(メタデータ) (2020-04-27T16:10:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。