論文の概要: Technical Report for Argoverse Challenges on 4D Occupancy Forecasting
- arxiv url: http://arxiv.org/abs/2311.15660v1
- Date: Mon, 27 Nov 2023 09:40:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 16:10:47.109854
- Title: Technical Report for Argoverse Challenges on 4D Occupancy Forecasting
- Title(参考訳): 4次元占有予測におけるargoverse challengeの技術報告
- Authors: Pengfei Zheng, Kanokphan Lertniphonphan, Feng Chen, Siwei Chen,
Bingchuan Sun, Jun Xie, Zhepeng Wang
- Abstract要約: 我々のソリューションは、強いLiDARベースのBird's Eye View(BEV)エンコーダと2段階デコーダからなる。
このソリューションはArgoverse 2センサーデータセットでテストされ、将来3秒間の占有状態を評価する。
CVPR 2023のArgoverse Challengesでは,L1エラー(3.57)がベースラインよりも18%低かった。
- 参考スコア(独自算出の注目度): 32.43324720856606
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This report presents our Le3DE2E_Occ solution for 4D Occupancy Forecasting in
Argoverse Challenges at CVPR 2023 Workshop on Autonomous Driving (WAD). Our
solution consists of a strong LiDAR-based Bird's Eye View (BEV) encoder with
temporal fusion and a two-stage decoder, which combines a DETR head and a UNet
decoder. The solution was tested on the Argoverse 2 sensor dataset to evaluate
the occupancy state 3 seconds in the future. Our solution achieved 18% lower L1
Error (3.57) than the baseline and got the 1 place on the 4D Occupancy
Forecasting task in Argoverse Challenges at CVPR 2023.
- Abstract(参考訳): 本稿では, CVPR 2023 Workshop on Autonomous Driving (WAD) において, 4D Occupancy Forecasting in Argoverse ChallengesのLe3DE2E_Occソリューションについて紹介する。
我々のソリューションは、強力なLiDARベースのBird's Eye View(BEV)エンコーダと、DETRヘッドとUNetデコーダを組み合わせた2段階デコーダで構成される。
このソリューションはArgoverse 2センサーデータセットでテストされ、将来3秒間の占有状態を評価する。
提案手法はベースラインより18%低いl1誤差 (3.57) を達成し, cvpr 2023において4次元占有予測タスクにおいて1位を得た。
関連論文リスト
- Technical Report for CVPR 2024 WeatherProof Dataset Challenge: Semantic Segmentation on Paired Real Data [9.128113804878959]
この課題は、世界中の様々な天候によって劣化した画像のセマンティックセグメンテーションを目標とする。
我々は、インターンイメージ(InternImage)という訓練済みの大規模視覚基盤モデルを導入し、異なるレベルのノイズを持つ画像を用いて訓練した。
その結果、45.1mIOUで2位となり、他の優勝者より少なかった。
論文 参考訳(メタデータ) (2024-06-09T17:08:07Z) - A Two-Stage Adverse Weather Semantic Segmentation Method for WeatherProof Challenge CVPR 2024 Workshop UG2+ [10.069192320623031]
We propose a two-stage Deep Learning framework for the WeatherProof dataset Challenge。
この課題では,mIoU(Mean Intersection over Union)測定値で0.43の競争スコアを達成し,上位4位を確保した。
論文 参考訳(メタデータ) (2024-06-08T16:22:26Z) - The Third Monocular Depth Estimation Challenge [134.16634233789776]
本稿では,モノクロ深度推定チャレンジ(MDEC)の第3版の結果について述べる。
この課題は、自然と屋内の複雑なシーンを特徴とする、挑戦的なSynS-Patchesデータセットへのゼロショットの一般化に焦点を当てている。
挑戦者は17.51%から23.72%の3D Fスコアのパフォーマンスを大幅に改善した。
論文 参考訳(メタデータ) (2024-04-25T17:59:59Z) - NTIRE 2024 Challenge on Image Super-Resolution ($\times$4): Methods and Results [126.78130602974319]
画像の超高解像度化に関するNTIRE 2024の課題(4ドル)をレビューする。
この課題は、低解像度(LR)入力から4倍の倍率で対応する高解像度(HR)画像を生成することである。
この挑戦の目的は、最も先進的なSR性能を持つ設計/解決を得ることである。
論文 参考訳(メタデータ) (2024-04-15T13:45:48Z) - Technical Report for Argoverse Challenges on Unified Sensor-based
Detection, Tracking, and Forecasting [14.44580354496143]
本稿では,検出,追跡,予測という3つのタスクを組み込んだ統合ネットワークを提案する。
このソリューションは、空間的および時間的融合を伴う強力なBird's Eye View (BEV)エンコーダを採用し、マルチタスクの統一表現を生成する。
CVPR 2023 WADのArgoverse ChallengesにおけるE2E予測トラックにおける検出,追跡,予測の1位を達成した。
論文 参考訳(メタデータ) (2023-11-27T08:25:23Z) - FB-OCC: 3D Occupancy Prediction based on Forward-Backward View
Transformation [79.41536932037822]
FB-BEVは前方投影を用いた近縁カメラを用いた鳥眼視知覚設計である。
設計と最適化の結果、最先端のmIoUスコアはnuScenesデータセットで54.19%となり、チャレンジトラックで1位となった。
論文 参考訳(メタデータ) (2023-07-04T05:55:54Z) - AVATAR submission to the Ego4D AV Transcription Challenge [79.21857972093332]
我々のパイプラインはAVATAR(AV-ASRのアーティファクトエンコーダデコーダモデル)に基づいており、スペクトログラムとRGB画像の早期融合を行う。
最終方法は,挑戦テストセットにおいて68.40のWERを達成し,ベースラインを43.7%上回り,挑戦に勝つ。
論文 参考訳(メタデータ) (2022-11-18T01:03:30Z) - Where a Strong Backbone Meets Strong Features -- ActionFormer for Ego4D
Moment Queries Challenge [7.718326034763966]
私たちはActionFormerという、時間的アクションローカライゼーションのための最先端のバックボーンと、SlowFast、Omnivore、Egoの強力なビデオ機能をベースにしています。
私たちのソリューションは、テストセットの平均mAPが21.76%で、公開リーダボードで2位にランクされています。
論文 参考訳(メタデータ) (2022-11-16T17:43:26Z) - Workshop on Autonomous Driving at CVPR 2021: Technical Report for
Streaming Perception Challenge [57.647371468876116]
本稿では,現実的な自律運転シナリオのためのリアルタイム2次元物体検出システムについて紹介する。
私たちの検出器は、YOLOXと呼ばれる新しい設計のYOLOモデルで構築されています。
Argoverse-HDデータセットでは,検出のみのトラック/トラックで2位を7.8/6.1上回る41.0ストリーミングAPを達成した。
論文 参考訳(メタデータ) (2021-07-27T06:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。