論文の概要: Learning to Track Object Position through Occlusion
- arxiv url: http://arxiv.org/abs/2106.10766v1
- Date: Sun, 20 Jun 2021 22:29:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-23 06:30:38.341393
- Title: Learning to Track Object Position through Occlusion
- Title(参考訳): 咬合による物体位置追跡の学習
- Authors: Satyaki Chakraborty, Martial Hebert
- Abstract要約: オクルージョンは、物体検出器やトラッカーが直面する最も重要な課題の1つである。
本稿では,領域ベースビデオオブジェクト検出装置の成功に基づくトラッキング・バイ・検出手法を提案する。
提案手法は,インターネットから収集した家具組立ビデオのデータセットにおいて,優れた結果が得られる。
- 参考スコア(独自算出の注目度): 32.458623495840904
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Occlusion is one of the most significant challenges encountered by object
detectors and trackers. While both object detection and tracking has received a
lot of attention in the past, most existing methods in this domain do not
target detecting or tracking objects when they are occluded. However, being
able to detect or track an object of interest through occlusion has been a long
standing challenge for different autonomous tasks. Traditional methods that
employ visual object trackers with explicit occlusion modeling experience drift
and make several fundamental assumptions about the data. We propose to address
this with a `tracking-by-detection` approach that builds upon the success of
region based video object detectors. Our video level object detector uses a
novel recurrent computational unit at its core that enables long term
propagation of object features even under occlusion. Finally, we compare our
approach with existing state-of-the-art video object detectors and show that
our approach achieves superior results on a dataset of furniture assembly
videos collected from the internet, where small objects like screws, nuts, and
bolts often get occluded from the camera viewpoint.
- Abstract(参考訳): 閉塞は物体探知機や追跡装置が遭遇する最も重大な課題の1つである。
オブジェクトの検出と追跡は過去にも多くの注目を集めてきたが、この領域の既存のほとんどのメソッドは、オブジェクトが隠されているときの検出や追跡を目標としていない。
しかし、隠蔽によって興味のある物体を検出したり追跡したりすることは、様々な自律的なタスクにおいて長年の課題であった。
視覚オブジェクトトラッカーと明示的なオクルージョンモデリングの経験を取り入れた従来の手法では、データについていくつかの基本的な仮定がなされている。
そこで本稿では,領域ベースビデオオブジェクト検出装置の成功を基盤とした「トラッキング・バイ・検出」手法を提案する。
ビデオレベル物体検出装置は, 咬合下においても物体特徴の長期伝播を可能にする, 新たな再帰計算ユニットをコアとして使用する。
最後に,現状の映像物体検出装置と比較し,インターネットから収集した家具組立ビデオのデータセットにおいて,ネジやナッツ,ボルトなどの小型物体がカメラの視点からしばしば目立たないほど優れた結果が得られることを示す。
関連論文リスト
- VOVTrack: Exploring the Potentiality in Videos for Open-Vocabulary Object Tracking [61.56592503861093]
オープンボキャブラリオブジェクト検出(OVD)とマルチオブジェクトトラッキング(MOT)の複雑さを両立させる。
OVMOT の既存のアプローチは、OVD と MOT の方法論を別個のモジュールとして統合することが多く、主に画像中心のレンズによる問題に焦点を当てている。
VOVTrackは、MOTとビデオ中心トレーニングに関連するオブジェクト状態を統合する新しい手法であり、ビデオオブジェクト追跡の観点からこの問題に対処する。
論文 参考訳(メタデータ) (2024-10-11T05:01:49Z) - Leveraging Object Priors for Point Tracking [25.030407197192]
ポイントトラッキングは、コンピュータビジョンにおける基本的な問題であり、多くのARやロボット工学への応用がある。
本稿では,対象の先行点に注意を向ける新たな対象性正規化手法を提案する。
提案手法は,3点追跡ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2024-09-09T16:48:42Z) - SeMoLi: What Moves Together Belongs Together [51.72754014130369]
動作手がかりに基づく半教師付き物体検出に挑戦する。
近年,移動物体の擬似ラベルインスタンスに対して,動きに基づくクラスタリング手法が適用可能であることが示唆された。
我々は、このアプローチを再考し、オブジェクト検出とモーションインスパイアされた擬似ラベルの両方が、データ駆動方式で取り組めることを示唆する。
論文 参考訳(メタデータ) (2024-02-29T18:54:53Z) - The Background Also Matters: Background-Aware Motion-Guided Objects
Discovery [2.6442319761949875]
本研究では,背景認識型動き誘導物体探索法を提案する。
我々は光学的流れから抽出した移動物体のマスクを活用し、学習機構を設計し、それらを真の前景に拡張する。
これにより、オブジェクト発見タスクとオブジェクト/非オブジェクト分離の合同学習が可能になる。
論文 参考訳(メタデータ) (2023-11-05T12:35:47Z) - Object-Centric Multiple Object Tracking [124.30650395969126]
本稿では,多目的追跡パイプラインのためのビデオオブジェクト中心モデルを提案する。
オブジェクト中心のスロットを検出出力に適応するインデックスマージモジュールと、オブジェクトメモリモジュールで構成される。
オブジェクト中心学習に特化して、オブジェクトのローカライゼーションと機能バインディングのためのスパース検出ラベルしか必要としない。
論文 参考訳(メタデータ) (2023-09-01T03:34:12Z) - Once Detected, Never Lost: Surpassing Human Performance in Offline LiDAR
based 3D Object Detection [50.959453059206446]
本稿では,高性能なオフラインLiDARによる3Dオブジェクト検出を実現することを目的とする。
まず、経験豊富な人間のアノテータが、トラック中心の視点でオブジェクトに注釈を付けるのを観察する。
従来のオブジェクト中心の視点ではなく,トラック中心の視点で高性能なオフライン検出器を提案する。
論文 参考訳(メタデータ) (2023-04-24T17:59:05Z) - Tackling Background Distraction in Video Object Segmentation [7.187425003801958]
ビデオオブジェクトセグメンテーション(VOS)は、ビデオ内の特定のオブジェクトを密に追跡することを目的としている。
このタスクの主な課題の1つは、ターゲットオブジェクトに類似したように見えるバックグラウンド・トラクタの存在である。
このような混乱を抑制するための3つの新しい戦略を提案する。
我々のモデルは,リアルタイムな性能であっても,現代の最先端手法に匹敵する性能を実現している。
論文 参考訳(メタデータ) (2022-07-14T14:25:19Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z) - Detecting Invisible People [58.49425715635312]
我々は,追跡ベンチマークを再利用し,目立たない物体を検出するための新しい指標を提案する。
私たちは、現在の検出および追跡システムがこのタスクで劇的に悪化することを実証します。
第2に,最先端の単眼深度推定ネットワークによる観測結果を用いて,3次元で明示的に推論する動的モデルを構築した。
論文 参考訳(メタデータ) (2020-12-15T16:54:45Z) - Blending of Learning-based Tracking and Object Detection for Monocular
Camera-based Target Following [2.578242050187029]
本稿では,ジェネリックターゲットトラッカーとオブジェクト検出モジュールを対象再識別モジュールと融合するリアルタイムアプローチを提案する。
本研究は,進化的リカレントニューラルネットワークを用いたオブジェクトトラッカーの性能向上に重点を置いている。
論文 参考訳(メタデータ) (2020-08-21T18:44:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。