論文の概要: TAO-Amodal: A Benchmark for Tracking Any Object Amodally
- arxiv url: http://arxiv.org/abs/2312.12433v3
- Date: Tue, 2 Apr 2024 18:09:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 22:27:34.536099
- Title: TAO-Amodal: A Benchmark for Tracking Any Object Amodally
- Title(参考訳): TAO-Amodal:任意のオブジェクトを非同期に追跡するためのベンチマーク
- Authors: Cheng-Yen Hsieh, Kaihua Chen, Achal Dave, Tarasha Khurana, Deva Ramanan,
- Abstract要約: TAO-Amodalは,数千の動画シーケンスにおいて833の多様なカテゴリを特徴とする。
私たちのデータセットには、カメラフレームから部分的に外れたものを含む、可視または部分的に、あるいは完全に隠されたオブジェクトのための、テクスタモーダルおよびモーダルバウンディングボックスが含まれています。
- 参考スコア(独自算出の注目度): 41.5396827282691
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Amodal perception, the ability to comprehend complete object structures from partial visibility, is a fundamental skill, even for infants. Its significance extends to applications like autonomous driving, where a clear understanding of heavily occluded objects is essential. However, modern detection and tracking algorithms often overlook this critical capability, perhaps due to the prevalence of \textit{modal} annotations in most benchmarks. To address the scarcity of amodal benchmarks, we introduce TAO-Amodal, featuring 833 diverse categories in thousands of video sequences. Our dataset includes \textit{amodal} and modal bounding boxes for visible and partially or fully occluded objects, including those that are partially out of the camera frame. We investigate the current lay of the land in both amodal tracking and detection by benchmarking state-of-the-art modal trackers and amodal segmentation methods. We find that existing methods, even when adapted for amodal tracking, struggle to detect and track objects under heavy occlusion. To mitigate this, we explore simple finetuning schemes that can increase the amodal tracking and detection metrics of occluded objects by 2.1\% and 3.3\%.
- Abstract(参考訳): 部分的な視界から完全な物体構造を理解する能力であるアモーダル知覚は、幼児にとっても基本的な技術である。
その重要性は、密閉された物体の明確な理解が不可欠である自律運転のような応用にまで及ぶ。
しかし、現代の検出と追跡アルゴリズムは、おそらくほとんどのベンチマークで \textit{modal} アノテーションが普及しているため、この重要な機能を見落としていることが多い。
アモーダルベンチマークの不足に対処するため、TAO-Amodalを導入し、数千の動画シーケンスで833の多様なカテゴリを特徴とする。
我々のデータセットには、textit{amodal} と、カメラフレームから部分的に外れているものを含む、可視または部分的にまたは完全に隠されたオブジェクトのためのモダルバウンディングボックスが含まれています。
本研究では,アモーダルトラッカーとアモーダルセグメンテーション手法のベンチマークにより,アモーダルトラッキングと検出の両方における土地の現在位置について検討する。
既存の手法は、たとえアモーダルトラッキングに適応しても、重い閉塞下での物体の検出と追跡に苦慮していることがわかった。
これを軽減するために, 隠蔽対象物のアモーダルトラッキングと検出の指標を2.1 %, 3.3 %増加させる, 簡易な微調整手法を提案する。
関連論文リスト
- Amodal Ground Truth and Completion in the Wild [84.54972153436466]
我々は3Dデータを用いて、実画像中の部分的に隠蔽された物体に対して、真偽のアモーダルマスクを決定するための自動パイプラインを確立する。
このパイプラインは、様々なオブジェクトカテゴリとラベルからなるアモーダル完了評価ベンチマークMP3D-Amodalを構築するために使用される。
論文 参考訳(メタデータ) (2023-12-28T18:59:41Z) - AmodalSynthDrive: A Synthetic Amodal Perception Dataset for Autonomous
Driving [10.928470926399566]
マルチタスク・マルチモーダル・アモーダル認識データセットであるAmodal SynthDriveを紹介する。
このデータセットは、150のドライブシーケンスに対して、マルチビューカメライメージ、3Dバウンディングボックス、LiDARデータ、およびオドメトリーを提供する。
Amodal SynthDriveは、導入されたアモーダル深度推定を含む複数のアモーダルシーン理解タスクをサポートする。
論文 参考訳(メタデータ) (2023-09-12T19:46:15Z) - OVTrack: Open-Vocabulary Multiple Object Tracking [64.73379741435255]
OVTrackは任意のオブジェクトクラスを追跡することができるオープン語彙トラッカーである。
大規模な大語彙のTAOベンチマークに新たな最先端技術が設定されている。
論文 参考訳(メタデータ) (2023-04-17T16:20:05Z) - End-to-end Tracking with a Multi-query Transformer [96.13468602635082]
マルチオブジェクトトラッキング(MOT)は、時間とともにシーン内のオブジェクトの位置、外観、アイデンティティを同時に推論する必要がある課題である。
本研究の目的は、トラッキング・バイ・ディテクト・アプローチを超えて、未知のオブジェクト・クラスに対してもよく機能するクラスに依存しないトラッキングへと移行することである。
論文 参考訳(メタデータ) (2022-10-26T10:19:37Z) - RLM-Tracking: Online Multi-Pedestrian Tracking Supported by Relative
Location Mapping [5.9669075749248774]
マルチオブジェクトトラッキングの問題は、公安、輸送、自動運転車、ロボティクス、人工知能を含む他の領域で広く利用されている、基本的なコンピュータビジョン研究の焦点である。
本稿では、オブジェクト textbfRelative Location Mapping (RLM) モデルと textbfTarget Region Density (TRD) モデルを含む、上記の問題に対する新しいマルチオブジェクトトラッカーを設計する。
新しいトラッカーは、オブジェクト間の位置関係の違いに敏感である。
物体の密度に応じてリアルタイムで異なる領域に低スコア検出フレームを導入することができる
論文 参考訳(メタデータ) (2022-10-19T11:37:14Z) - Amodal Cityscapes: A New Dataset, its Generation, and an Amodal Semantic
Segmentation Challenge Baseline [38.8592627329447]
本稿では,アモーダルなセマンティックセグメンテーションの課題を考察し,アモーダルなセマンティックセグメンテーションを訓練するためのデータセットを生成する汎用的な方法を提案する。
この手法を用いて、自動車環境認識におけるアモーダルなセマンティックセグメンテーションの適用性を示すアモーダルなCityscapesデータセットを生成する。
論文 参考訳(メタデータ) (2022-06-01T14:38:33Z) - AutoLay: Benchmarking amodal layout estimation for autonomous driving [18.152206533685412]
AutoLayはモノクロ画像からアモーダルレイアウトを推定するためのデータセットとベンチマークである。
また,車線,歩道,車両などの微粒な属性に加えて,意味的に注釈付けされた3次元点雲も提供する。
論文 参考訳(メタデータ) (2021-08-20T08:21:11Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z) - SoDA: Multi-Object Tracking with Soft Data Association [75.39833486073597]
マルチオブジェクトトラッキング(MOT)は、自動運転車の安全な配備の前提条件である。
観測対象間の依存関係をエンコードするトラック埋め込みの計算に注目するMOTに対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-08-18T03:40:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。