論文の概要: Tracking Any Object Amodally
- arxiv url: http://arxiv.org/abs/2312.12433v2
- Date: Tue, 23 Jan 2024 18:59:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-24 18:28:58.874279
- Title: Tracking Any Object Amodally
- Title(参考訳): 任意のオブジェクトをAmodallyで追跡する
- Authors: Cheng-Yen Hsieh, Tarasha Khurana, Achal Dave, Deva Ramanan
- Abstract要約: TAO-Amodalベンチマークを導入し、数千の動画シーケンスに880の多様なカテゴリを特徴付ける。
私たちのデータセットには、部分的にフレーム外であるオブジェクトを含む、可視および隠蔽オブジェクトのためのアモーダルおよびモーダルバウンディングボックスが含まれています。
TAO-Amodal上での閉塞物体の検出・追跡における3.3%と1.6%の改善を実現した。
- 参考スコア(独自算出の注目度): 48.68480442441279
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Amodal perception, the ability to comprehend complete object structures from
partial visibility, is a fundamental skill, even for infants. Its significance
extends to applications like autonomous driving, where a clear understanding of
heavily occluded objects is essential. However, modern detection and tracking
algorithms often overlook this critical capability, perhaps due to the
prevalence of modal annotations in most datasets. To address the scarcity of
amodal data, we introduce the TAO-Amodal benchmark, featuring 880 diverse
categories in thousands of video sequences. Our dataset includes amodal and
modal bounding boxes for visible and occluded objects, including objects that
are partially out-of-frame. To enhance amodal tracking with object permanence,
we leverage a lightweight plug-in module, the amodal expander, to transform
standard, modal trackers into amodal ones through fine-tuning on a few hundred
video sequences with data augmentation. We achieve a 3.3\% and 1.6\%
improvement on the detection and tracking of occluded objects on TAO-Amodal.
When evaluated on people, our method produces dramatic improvements of 2x
compared to state-of-the-art modal baselines.
- Abstract(参考訳): 部分的な視界から完全な物体構造を理解する能力であるアモーダル知覚は、幼児にとっても基本的な技術である。
その重要性は、密閉された物体の明確な理解が不可欠である自律運転のような応用にまで及ぶ。
しかし、現代の検出と追跡アルゴリズムは、おそらくほとんどのデータセットにおけるモダルアノテーションの普及により、この重要な能力を見落としていることが多い。
amodalデータの不足に対処するために,我々はtao-amodalベンチマークを紹介する。
私たちのデータセットには、部分的にフレーム外であるオブジェクトを含む、可視およびoccludedオブジェクトのためのamodalおよびmodalバウンディングボックスが含まれています。
オブジェクトの永続性によるamodalトラッキングを強化するために、軽量プラグインモジュールであるamodal expanderを利用して、データ拡張による数百のビデオシーケンスの微調整を行い、標準のmodalトラッカをamodalトラッカに変換する。
TAO-Amodal上での閉塞物体の検出・追跡における3.3\%および1.6\%の改善を実現した。
人に対して評価すると,最先端のモダルベースラインに比べて2倍の劇的な改善が得られた。
関連論文リスト
- Amodal Ground Truth and Completion in the Wild [84.54972153436466]
我々は3Dデータを用いて、実画像中の部分的に隠蔽された物体に対して、真偽のアモーダルマスクを決定するための自動パイプラインを確立する。
このパイプラインは、様々なオブジェクトカテゴリとラベルからなるアモーダル完了評価ベンチマークMP3D-Amodalを構築するために使用される。
論文 参考訳(メタデータ) (2023-12-28T18:59:41Z) - AmodalSynthDrive: A Synthetic Amodal Perception Dataset for Autonomous
Driving [10.928470926399566]
マルチタスク・マルチモーダル・アモーダル認識データセットであるAmodal SynthDriveを紹介する。
このデータセットは、150のドライブシーケンスに対して、マルチビューカメライメージ、3Dバウンディングボックス、LiDARデータ、およびオドメトリーを提供する。
Amodal SynthDriveは、導入されたアモーダル深度推定を含む複数のアモーダルシーン理解タスクをサポートする。
論文 参考訳(メタデータ) (2023-09-12T19:46:15Z) - OVTrack: Open-Vocabulary Multiple Object Tracking [64.73379741435255]
OVTrackは任意のオブジェクトクラスを追跡することができるオープン語彙トラッカーである。
大規模な大語彙のTAOベンチマークに新たな最先端技術が設定されている。
論文 参考訳(メタデータ) (2023-04-17T16:20:05Z) - End-to-end Tracking with a Multi-query Transformer [96.13468602635082]
マルチオブジェクトトラッキング(MOT)は、時間とともにシーン内のオブジェクトの位置、外観、アイデンティティを同時に推論する必要がある課題である。
本研究の目的は、トラッキング・バイ・ディテクト・アプローチを超えて、未知のオブジェクト・クラスに対してもよく機能するクラスに依存しないトラッキングへと移行することである。
論文 参考訳(メタデータ) (2022-10-26T10:19:37Z) - RLM-Tracking: Online Multi-Pedestrian Tracking Supported by Relative
Location Mapping [5.9669075749248774]
マルチオブジェクトトラッキングの問題は、公安、輸送、自動運転車、ロボティクス、人工知能を含む他の領域で広く利用されている、基本的なコンピュータビジョン研究の焦点である。
本稿では、オブジェクト textbfRelative Location Mapping (RLM) モデルと textbfTarget Region Density (TRD) モデルを含む、上記の問題に対する新しいマルチオブジェクトトラッカーを設計する。
新しいトラッカーは、オブジェクト間の位置関係の違いに敏感である。
物体の密度に応じてリアルタイムで異なる領域に低スコア検出フレームを導入することができる
論文 参考訳(メタデータ) (2022-10-19T11:37:14Z) - Amodal Cityscapes: A New Dataset, its Generation, and an Amodal Semantic
Segmentation Challenge Baseline [38.8592627329447]
本稿では,アモーダルなセマンティックセグメンテーションの課題を考察し,アモーダルなセマンティックセグメンテーションを訓練するためのデータセットを生成する汎用的な方法を提案する。
この手法を用いて、自動車環境認識におけるアモーダルなセマンティックセグメンテーションの適用性を示すアモーダルなCityscapesデータセットを生成する。
論文 参考訳(メタデータ) (2022-06-01T14:38:33Z) - AutoLay: Benchmarking amodal layout estimation for autonomous driving [18.152206533685412]
AutoLayはモノクロ画像からアモーダルレイアウトを推定するためのデータセットとベンチマークである。
また,車線,歩道,車両などの微粒な属性に加えて,意味的に注釈付けされた3次元点雲も提供する。
論文 参考訳(メタデータ) (2021-08-20T08:21:11Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z) - SoDA: Multi-Object Tracking with Soft Data Association [75.39833486073597]
マルチオブジェクトトラッキング(MOT)は、自動運転車の安全な配備の前提条件である。
観測対象間の依存関係をエンコードするトラック埋め込みの計算に注目するMOTに対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-08-18T03:40:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。