論文の概要: Object Permanence Emerges in a Random Walk along Memory
- arxiv url: http://arxiv.org/abs/2204.01784v1
- Date: Mon, 4 Apr 2022 18:28:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-06 13:37:18.773122
- Title: Object Permanence Emerges in a Random Walk along Memory
- Title(参考訳): オブジェクトの永続性はメモリ上のランダムウォークに現れる
- Authors: Pavel Tokmakov, Allan Jabri, Jie Li, Adrien Gaidon
- Abstract要約: 記憶の時間的コヒーレンスを最適化することで、物体の永続性が現れることを示す。
これにより、隠されたオブジェクトを格納し、その動きを予測し、よりローカライズするメモリ表現につながる。
結果として得られるモデルは、複雑さとリアリズムを増大させるいくつかのデータセットにおける既存のアプローチよりも優れている。
- 参考スコア(独自算出の注目度): 37.78331373391444
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper proposes a self-supervised objective for learning representations
that localize objects under occlusion - a property known as object permanence.
A central question is the choice of learning signal in cases of total
occlusion. Rather than directly supervising the locations of invisible objects,
we propose a self-supervised objective that requires neither human annotation,
nor assumptions about object dynamics. We show that object permanence can
emerge by optimizing for temporal coherence of memory: we fit a Markov walk
along a space-time graph of memories, where the states in each time step are
non-Markovian features from a sequence encoder. This leads to a memory
representation that stores occluded objects and predicts their motion, to
better localize them. The resulting model outperforms existing approaches on
several datasets of increasing complexity and realism, despite requiring
minimal supervision and assumptions, and hence being broadly applicable.
- Abstract(参考訳): 本稿では,物体を隠蔽下で局所化する表現を学習するための自己指導的目的を提案する。
中心的な疑問は、完全閉塞の場合の学習信号の選択である。
目に見えない物体の位置を直接監視するのではなく、人間のアノテーションやオブジェクトのダイナミクスに関する仮定を必要としない自己監督目的を提案する。
メモリの時間的コヒーレンスを最適化することで、オブジェクトの永続性が現れることを示す: メモリの時空間グラフに沿ってマルコフウォークに適合し、各時間ステップの状態をシーケンスエンコーダから非マルコフ的特徴とする。
これにより、隠されたオブジェクトを格納し、その動きを予測し、よりローカライズするメモリ表現につながる。
結果として得られたモデルは、最小限の監督と仮定を必要とするにもかかわらず、複雑さと現実主義を増大させるいくつかのデータセットで既存のアプローチを上回る。
関連論文リスト
- Tracking-Assisted Object Detection with Event Cameras [16.408606403997005]
イベントベースのオブジェクト検出は、コンピュータビジョンコミュニティで最近注目を集めている。
しかし、特徴的不規則性や空間性は、カメラに対する相対的な動きがないため、見えない物体を生じさせる。
本稿では、これらの見えない物体を擬似隠蔽物体とみなす。
擬似隠蔽オブジェクトのトラッキング戦略を利用して、永続性を維持し、バウンディングボックスを保持する。
論文 参考訳(メタデータ) (2024-03-27T08:11:25Z) - Object-Centric Multiple Object Tracking [124.30650395969126]
本稿では,多目的追跡パイプラインのためのビデオオブジェクト中心モデルを提案する。
オブジェクト中心のスロットを検出出力に適応するインデックスマージモジュールと、オブジェクトメモリモジュールで構成される。
オブジェクト中心学習に特化して、オブジェクトのローカライゼーションと機能バインディングのためのスパース検出ラベルしか必要としない。
論文 参考訳(メタデータ) (2023-09-01T03:34:12Z) - Spotlight Attention: Robust Object-Centric Learning With a Spatial
Locality Prior [88.9319150230121]
オブジェクト中心のビジョンは、シーン内のオブジェクトの明示的な表現を構築することを目的としています。
我々は、空間的局所性を最先端のオブジェクト中心視覚モデルに組み込む。
合成および実世界の両方のデータセットにおけるセグメンテーションオブジェクトの大幅な改善が得られた。
論文 参考訳(メタデータ) (2023-05-31T04:35:50Z) - Tackling Background Distraction in Video Object Segmentation [7.187425003801958]
ビデオオブジェクトセグメンテーション(VOS)は、ビデオ内の特定のオブジェクトを密に追跡することを目的としている。
このタスクの主な課題の1つは、ターゲットオブジェクトに類似したように見えるバックグラウンド・トラクタの存在である。
このような混乱を抑制するための3つの新しい戦略を提案する。
我々のモデルは,リアルタイムな性能であっても,現代の最先端手法に匹敵する性能を実現している。
論文 参考訳(メタデータ) (2022-07-14T14:25:19Z) - Complex-Valued Autoencoders for Object Discovery [62.26260974933819]
本稿では,オブジェクト中心表現に対する分散アプローチとして,複合オートエンコーダを提案する。
このシンプルで効率的なアプローチは、単純なマルチオブジェクトデータセット上の等価な実数値オートエンコーダよりも、より良い再構成性能を実現することを示す。
また、2つのデータセット上のSlotAttentionモデルと競合しないオブジェクト発見性能を実現し、SlotAttentionが失敗する第3のデータセットでオブジェクトをアンタングルする。
論文 参考訳(メタデータ) (2022-04-05T09:25:28Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - Recurrent Attention Models with Object-centric Capsule Representation
for Multi-object Recognition [4.143091738981101]
反復的な注目を伴うエンコーダ・デコーダモデルにおけるオブジェクト中心の隠れ表現は、注意と認識の効果的な統合をもたらすことを示す。
我々の研究は、再帰的なオブジェクト中心表現を注意を向ける計画に組み込むための一般的なアーキテクチャへの一歩を踏み出した。
論文 参考訳(メタデータ) (2021-10-11T01:41:21Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。