論文の概要: Technical Report for Argoverse Challenges on Unified Sensor-based
Detection, Tracking, and Forecasting
- arxiv url: http://arxiv.org/abs/2311.15615v1
- Date: Mon, 27 Nov 2023 08:25:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 16:41:28.660943
- Title: Technical Report for Argoverse Challenges on Unified Sensor-based
Detection, Tracking, and Forecasting
- Title(参考訳): センサベース統合検出・追跡・予測におけるargoverseの課題
- Authors: Zhepeng Wang, Feng Chen, Kanokphan Lertniphonphan, Siwei Chen, Jinyao
Bao, Pengfei Zheng, Jinbao Zhang, Kaer Huang, Tao Zhang
- Abstract要約: 本稿では,検出,追跡,予測という3つのタスクを組み込んだ統合ネットワークを提案する。
このソリューションは、空間的および時間的融合を伴う強力なBird's Eye View (BEV)エンコーダを採用し、マルチタスクの統一表現を生成する。
CVPR 2023 WADのArgoverse ChallengesにおけるE2E予測トラックにおける検出,追跡,予測の1位を達成した。
- 参考スコア(独自算出の注目度): 14.44580354496143
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This report presents our Le3DE2E solution for unified sensor-based detection,
tracking, and forecasting in Argoverse Challenges at CVPR 2023 Workshop on
Autonomous Driving (WAD). We propose a unified network that incorporates three
tasks, including detection, tracking, and forecasting. This solution adopts a
strong Bird's Eye View (BEV) encoder with spatial and temporal fusion and
generates unified representations for multi-tasks. The solution was tested in
the Argoverse 2 sensor dataset to evaluate the detection, tracking, and
forecasting of 26 object categories. We achieved 1st place in Detection,
Tracking, and Forecasting on the E2E Forecasting track in Argoverse Challenges
at CVPR 2023 WAD.
- Abstract(参考訳): 本報告では, CVPR 2023 Workshop on Autonomous Driving (WAD) におけるArgoverse Challengesにおけるセンサベース検出, 追跡, 予測の統合のためのLe3DE2Eソリューションを提案する。
本稿では,検出,追跡,予測という3つのタスクを組み込んだ統合ネットワークを提案する。
このソリューションは、空間的および時間的融合を伴う強力なBird's Eye View (BEV)エンコーダを採用し、マルチタスクの統一表現を生成する。
このソリューションはArgoverse 2センサーデータセットでテストされ、26のオブジェクトカテゴリの検出、追跡、予測を評価した。
CVPR 2023 WADのArgoverse ChallengesにおけるE2E予測トラックにおける検出,追跡,予測の1位を達成した。
関連論文リスト
- First Place Solution to the ECCV 2024 ROAD++ Challenge @ ROAD++ Spatiotemporal Agent Detection 2024 [12.952512012601874]
トラック1のタスクはエージェント検出であり、連続したビデオフレーム内のエージェントのためのエージェント用の「エージェントチューブ」を構築することを目的としている。
私たちのソリューションは、超小型オブジェクト、低照度、不均衡、きめ細かい分類など、このタスクにおける課題に焦点を当てています。
ROAD++ Challenge 2024のトラック1のテストセットで最初にランク付けし、平均30.82%の動画mAPを達成した。
論文 参考訳(メタデータ) (2024-10-30T14:52:43Z) - V3Det Challenge 2024 on Vast Vocabulary and Open Vocabulary Object Detection: Methods and Results [142.5704093410454]
V3Det Challenge 2024は、オブジェクト検出研究の境界を推し進めることを目的としている。
Vast Vocabulary Object DetectionとOpen Vocabulary Object Detectionの2つのトラックで構成されている。
我々は,広い語彙とオープン語彙のオブジェクト検出において,今後の研究の方向性を刺激することを目指している。
論文 参考訳(メタデータ) (2024-06-17T16:58:51Z) - DeTra: A Unified Model for Object Detection and Trajectory Forecasting [68.85128937305697]
提案手法は,2つのタスクの結合を軌道修正問題として定式化する。
この統合タスクに対処するために、オブジェクトの存在, ポーズ, マルチモーダルな将来の振る舞いを推測する精細化変換器を設計する。
実験では、我々のモデルはArgoverse 2 Sensor and Openデータセットの最先端性よりも優れています。
論文 参考訳(メタデータ) (2024-06-06T18:12:04Z) - OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - Technical Report for Argoverse Challenges on 4D Occupancy Forecasting [32.43324720856606]
我々のソリューションは、強いLiDARベースのBird's Eye View(BEV)エンコーダと2段階デコーダからなる。
このソリューションはArgoverse 2センサーデータセットでテストされ、将来3秒間の占有状態を評価する。
CVPR 2023のArgoverse Challengesでは,L1エラー(3.57)がベースラインよりも18%低かった。
論文 参考訳(メタデータ) (2023-11-27T09:40:53Z) - The 2nd Workshop on Maritime Computer Vision (MaCVi) 2024 [71.80200746293505]
2nd Workshop on Maritime Computer Vision (MaCVi) 2024 address seatime computer vision for Unmanned Aerial Vehicles (UAV) and Unmanned Surface Vehicles (USV)
論文 参考訳(メタデータ) (2023-11-23T21:01:14Z) - Object Semantics Give Us the Depth We Need: Multi-task Approach to
Aerial Depth Completion [1.2239546747355885]
本稿では,2つのタスクをひとつのパスで共同実行するための新しい手法を提案する。
提案手法は,2つのタスクを共同学習機能に公開するエンコーダに着目したマルチタスク学習モデルに基づく。
実験の結果,提案したマルチタスクネットワークはシングルタスクネットワークよりも優れていた。
論文 参考訳(メタデータ) (2023-04-25T03:21:32Z) - Minkowski Tracker: A Sparse Spatio-Temporal R-CNN for Joint Object
Detection and Tracking [53.64390261936975]
我々はオブジェクトの検出と追跡を共同で解決するスパース時間R-CNNであるMinkowski Trackerを提案する。
領域ベースCNN(R-CNN)に着想を得て,物体検出器R-CNNの第2段階として動きを追跡することを提案する。
大規模実験では,本手法の総合的な性能向上は4つの要因によることがわかった。
論文 参考訳(メタデータ) (2022-08-22T04:47:40Z) - Multi-Camera Multiple 3D Object Tracking on the Move for Autonomous
Vehicles [17.12321292167318]
オブジェクトの検出と追跡は、カメラのビューにまたがって一貫した結果を達成するなど、新しい課題に対処するために重要である。
本研究は,既存のトラックレットの位置とリンク検出をトラックレットで予測するために,リンク予測を用いた新たなグローバルアソシエーショングラフモデルを提案する。
本モデルは, nuScenes 検出課題における標準3次元物体検出器の検出精度の向上に有効である。
論文 参考訳(メタデータ) (2022-04-19T22:50:36Z) - The State of Aerial Surveillance: A Survey [62.198765910573556]
本稿では、コンピュータビジョンとパターン認識の観点から、人間中心の空中監視タスクの概要を概観する。
主な対象は、単体または複数の被験者が検出され、特定され、追跡され、再同定され、その振る舞いが分析される人間である。
論文 参考訳(メタデータ) (2022-01-09T20:13:27Z) - SPG: Unsupervised Domain Adaptation for 3D Object Detection via Semantic
Point Generation [28.372067223801203]
自律走行では、LiDARをベースとした物体検出器は、異なる地理的位置と様々な気象条件下で確実に動作すべきである。
最近の3D検出研究は、単一のドメイン内での性能向上に重点を置いているが、現代の検出器の性能が劇的にクロスドメインに落ちてしまうことは明らかである。
ドメインシフトに対するLiDAR検出器の信頼性を高めるための一般的なアプローチであるセマンティックポイント生成(SPG)を提案する。
論文 参考訳(メタデータ) (2021-08-15T10:00:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。