論文の概要: Looping LOCI: Developing Object Permanence from Videos
- arxiv url: http://arxiv.org/abs/2310.10372v1
- Date: Mon, 16 Oct 2023 13:11:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 14:26:21.308538
- Title: Looping LOCI: Developing Object Permanence from Videos
- Title(参考訳): Looping LOCI: ビデオからオブジェクト永続性を開発する
- Authors: Manuel Traub, Frederic Becker, Sebastian Otte, Martin V. Butz
- Abstract要約: 我々はLoci-Loopedを紹介した。これは、最近発表された、内部処理ループを備えたニューラルネットワークアーキテクチャの教師なしオブジェクトの位置、識別、追跡を前進させるものだ。
Loci-Loopedは、オブジェクトの隠された軌道をシミュレートし、再出現を期待しながら、オブジェクトを長期にわたって追跡することを学ぶ。
このことは、Loci-Loopedが、完全に教師なしの創発的な方法で、物体の永続性と慣性という物理的概念を学ぶことができることを示している。
- 参考スコア(独自算出の注目度): 4.690439718602139
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent compositional scene representation learning models have become
remarkably good in segmenting and tracking distinct objects within visual
scenes. Yet, many of these models require that objects are continuously, at
least partially, visible. Moreover, they tend to fail on intuitive physics
tests, which infants learn to solve over the first months of their life. Our
goal is to advance compositional scene representation algorithms with an
embedded algorithm that fosters the progressive learning of intuitive physics,
akin to infant development. As a fundamental component for such an algorithm,
we introduce Loci-Looped, which advances a recently published unsupervised
object location, identification, and tracking neural network architecture
(Loci, Traub et al., ICLR 2023) with an internal processing loop. The loop is
designed to adaptively blend pixel-space information with anticipations
yielding information-fused activities as percepts. Moreover, it is designed to
learn compositional representations of both individual object dynamics and
between-objects interaction dynamics. We show that Loci-Looped learns to track
objects through extended periods of object occlusions, indeed simulating their
hidden trajectories and anticipating their reappearance, without the need for
an explicit history buffer. We even find that Loci-Looped surpasses
state-of-the-art models on the ADEPT and the CLEVRER dataset, when confronted
with object occlusions or temporary sensory data interruptions. This indicates
that Loci-Looped is able to learn the physical concepts of object permanence
and inertia in a fully unsupervised emergent manner. We believe that even
further architectural advancements of the internal loop - also in other
compositional scene representation learning models - can be developed in the
near future.
- Abstract(参考訳): 最近の構成的シーン表現学習モデルは、視覚的シーン内の異なるオブジェクトのセグメンテーションや追跡において著しく優れている。
しかし、これらのモデルの多くは、オブジェクトが連続的に、少なくとも部分的に可視であることを要求する。
さらに、直感的な物理テストでは失敗する傾向があり、幼児は人生の最初の数ヶ月で解決することを学ぶ。
我々のゴールは、幼児の発達に似た直感的な物理学の進歩的な学習を促進する組込みアルゴリズムで構成シーン表現アルゴリズムを進化させることである。
このようなアルゴリズムの基本コンポーネントとして、最近発表された未管理オブジェクトの位置、識別、追跡(Loci, Traub et al., ICLR 2023)を内部処理ループで導入するLoci-Loopedを紹介する。
このループは、ピクセル空間の情報と、情報融合アクティビティを知覚として生じる予測とを適応的にブレンドするように設計されている。
さらに、個々のオブジェクトのダイナミクスとオブジェクト間の相互作用のダイナミクスの合成表現を学ぶように設計されている。
loci-loopedは、オブジェクトのオクルージョンの長い期間を通してオブジェクトを追跡し、隠れた軌跡を実際にシミュレートし、明示的な履歴バッファを必要とせずに再出現を予想する。
Loci-LoopedがADEPTとCLEVRERデータセットの最先端モデルを上回るのは、オブジェクトの閉塞や一時的な知覚データ中断に直面している時です。
このことは、Loci-Loopedが、完全に教師なしの創発的な方法で、物体の永続性と慣性という物理的概念を学ぶことができることを示している。
他の構成的シーン表現学習モデルにおいても、内部ループのさらなるアーキテクチャ上の進歩は、近い将来に開発できると信じています。
関連論文リスト
- Seeing Objects in a Cluttered World: Computational Objectness from
Motion in Video [0.0]
物体が重なり合う物体と物理的に異なるものとして、世界の視覚的に不連続な表面を認識することは、視覚的知覚の基礎となる。
対象モデルを持たない現象学から客観性を推定するための,単純だが新しい手法を提案する。
ぼやけやカメラの震えがあっても、個々の被写体をぼやけたシーンでしっかりと認識できることを示す。
論文 参考訳(メタデータ) (2024-02-02T03:57:11Z) - Spotlight Attention: Robust Object-Centric Learning With a Spatial
Locality Prior [88.9319150230121]
オブジェクト中心のビジョンは、シーン内のオブジェクトの明示的な表現を構築することを目的としています。
我々は、空間的局所性を最先端のオブジェクト中心視覚モデルに組み込む。
合成および実世界の両方のデータセットにおけるセグメンテーションオブジェクトの大幅な改善が得られた。
論文 参考訳(メタデータ) (2023-05-31T04:35:50Z) - Embodied vision for learning object representations [4.211128681972148]
幼児の視覚的統計は、親しみやすい環境と新しい環境の両方において、物体認識の精度を向上させる。
この効果は、背景から抽出した特徴の減少、画像中の大きな特徴に対するニューラルネットワークバイアス、新奇な背景領域と慣れ親しんだ背景領域との類似性の向上によるものである、と我々は主張する。
論文 参考訳(メタデータ) (2022-05-12T16:36:27Z) - Stochastic Coherence Over Attention Trajectory For Continuous Learning
In Video Streams [64.82800502603138]
本稿では,映像ストリーム中のピクセルワイズ表現を段階的かつ自律的に開発するための,ニューラルネットワークに基づく新しいアプローチを提案する。
提案手法は, 参加者の入場地を観察することで, エージェントが学習できる, 人間の様の注意機構に基づく。
実験では,3次元仮想環境を利用して,映像ストリームを観察することで,エージェントが物体の識別を学べることを示す。
論文 参考訳(メタデータ) (2022-04-26T09:52:31Z) - Bi-directional Object-context Prioritization Learning for Saliency
Ranking [60.62461793691836]
既存のアプローチは、オブジェクトオブジェクトかオブジェクトシーンの関係を学ぶことに集中しています。
我々は,人間の視覚認識システムにおいて,空間的注意と物体に基づく注意が同時に機能することが観察された。
本稿では,空間的注意を統一する新たな双方向手法を提案する。
論文 参考訳(メタデータ) (2022-03-17T16:16:03Z) - Weakly Supervised Human-Object Interaction Detection in Video via
Contrastive Spatiotemporal Regions [81.88294320397826]
システムは、ビデオに人間と物体の相互作用が存在するか、あるいは人間と物体の実際の位置を知らない。
文節から収集した人-物間相互作用による6.5k以上のビデオからなるデータセットを提案する。
ビデオデータセットのアノテーションに適応した弱教師付きベースラインの性能向上を実証した。
論文 参考訳(メタデータ) (2021-10-07T15:30:18Z) - Capturing the objects of vision with neural networks [0.0]
人間の視覚知覚はその物理的関節でシーンを彫り、世界をオブジェクトに分解する。
対照的に、視覚物体認識のディープニューラルネットワーク(DNN)モデルは、主に感覚入力と結びついている。
両分野の関連研究をレビューし、これらの分野が相互にどのように役立つかを検討する。
論文 参考訳(メタデータ) (2021-09-07T21:49:53Z) - Constellation: Learning relational abstractions over objects for
compositional imagination [64.99658940906917]
静的な視覚シーンのリレーショナル抽象化を学習するネットワークであるConstellationを紹介する。
この研究は、視覚的関係を明確に表現し、それらを複雑な認知手続きに使用するための第一歩である。
論文 参考訳(メタデータ) (2021-07-23T11:59:40Z) - Curiosity-driven Intuitive Physics Learning [0.0]
実世界のAIエージェントに対する好奇心駆動学習と推論のモデルを提案する。
このモデルは好奇心の喚起に基づくもので、基本的なマクロ固体物理パラメータの不連続性に関する観測から導かれる。
このモデルは、ドメインに関係なく、ゼロから学習のエミュレーションと経験による実証を支援することを目的としています。
論文 参考訳(メタデータ) (2021-05-16T12:58:05Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z) - Learning Object-Based State Estimators for Household Robots [11.055133590909097]
我々は高次元観測と仮説に基づいてオブジェクトベースのメモリシステムを構築する。
シミュレーション環境と実画像の両方において動的に変化するオブジェクトの記憶を維持するシステムの有効性を実証する。
論文 参考訳(メタデータ) (2020-11-06T04:18:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。