論文の概要: Quantity over Quality: Training an AV Motion Planner with Large Scale
Commodity Vision Data
- arxiv url: http://arxiv.org/abs/2203.01681v1
- Date: Thu, 3 Mar 2022 12:39:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-04 16:40:26.891726
- Title: Quantity over Quality: Training an AV Motion Planner with Large Scale
Commodity Vision Data
- Title(参考訳): 品質以上の量:大規模コモディティビジョンデータを用いたAVモーションプランナの訓練
- Authors: Lukas Platinsky, Tayyab Naseer, Hui Chen, Ben Haines, Haoyue Zhu, Hugo
Grimmett, Luca Del Pero
- Abstract要約: 本稿では,コモディティビジョンデータを用いた高性能なモーションプランナのトレーニングを,コストのごく一部で行うことができることを示す。
100hのコモディティビジョンデータを訓練したプランナーは、高価なHDデータを25hで上回ります。
私たちの知る限りでは、実世界のデータを使ってこれが可能であることを最初に実証しています。
- 参考スコア(独自算出の注目度): 6.627822861228933
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With the Autonomous Vehicle (AV) industry shifting towards Autonomy 2.0, the
performance of self-driving systems starts to rely heavily on large quantities
of expert driving demonstrations. However, collecting this demonstration data
typically involves expensive HD sensor suites (LiDAR + RADAR + cameras), which
quickly becomes financially infeasible at the scales required. This motivates
the use of commodity vision sensors for data collection, which are an order of
magnitude cheaper than the HD sensor suites, but offer lower fidelity. If it
were possible to leverage these for training an AV motion planner, observing
the `long tail' of driving events would become a financially viable strategy.
As our main contribution we show it is possible to train a high-performance
motion planner using commodity vision data which outperforms planners trained
on HD-sensor data for a fraction of the cost. We do this by comparing the
autonomy system performance when training on these two different sensor
configurations, and showing that we can compensate for the lower sensor
fidelity by means of increased quantity: a planner trained on 100h of commodity
vision data outperforms one with 25h of expensive HD data. We also share the
technical challenges we had to tackle to make this work. To the best of our
knowledge, we are the first to demonstrate that this is possible using
real-world data.
- Abstract(参考訳): 自動運転(autonomous vehicle, av)産業がautonomous 2.0へと移行するにつれ、自動運転システムのパフォーマンスは、大量の専門家による運転デモに大きく依存し始める。
しかし、このデモデータの収集には一般的に高価なhdセンサースイート(lidar+レーダー+カメラ)が必要であり、必要な規模ではすぐに経済的に実現不可能になる。
これは、hdセンサースイートよりも桁違いに安いが、忠実度は低い、データ収集のためのコモディティビジョンセンサーの使用を動機付けている。
もしこれらをAV運動プランナーの訓練に活用できれば、運転イベントの「長い尾」を観察することは経済的に実行可能な戦略となる。
提案する主な貢献として,hdセンサデータでトレーニングされたプランナーを少ないコストで上回るコモディティビジョンデータを用いて,高性能なモーションプランナーを訓練することが可能であることを示した。
これら2つのセンサ構成をトレーニングする際の自律システムの性能を比較し,さらに,100hのコモディティビジョンデータをトレーニングしたプランナーが,高価なHDデータを25hの高精細なデータで処理することで,より少ないセンサ忠実度を補えることを示す。
また、これを実現するために取り組むべき技術的課題も共有しています。
私たちの知る限りでは、実世界のデータを使ってこれが可能であることを最初に実証しています。
関連論文リスト
- VILA$^2$: VILA Augmented VILA [69.5318347688297]
自己拡張ステップとスペシャリスト強化ステップを含む,単純で効果的なVLM拡張スキームを導入する。
3ラウンドの自己拡張ラウンドでデータ品質と下流精度の向上を観察する。
VLMの専門家は、空間、接地、OCRなどドメイン固有の専門家とともに自己拡張VLMから抽出し、タスク認識合成データを事前学習段階に融合させる。
論文 参考訳(メタデータ) (2024-07-24T17:37:05Z) - TUMTraf V2X Cooperative Perception Dataset [20.907021313266128]
協調型マルチモーダル融合モデルであるCoopDet3Dと認識データセットであるTUMTraf-V2Xを提案する。
私たちのデータセットには2,000のラベル付きポイントクラウドと5000のラベル付きイメージが5つの道端と4つのオンボードセンサーから含まれています。
当社のCoopDet3Dカメラ-LiDAR融合モデルでは,車載カメラ-LiDAR融合モデルと比較して+14.363D mAPの増加が達成されている。
論文 参考訳(メタデータ) (2024-03-02T21:29:04Z) - Dataset and Benchmark: Novel Sensors for Autonomous Vehicle Perception [7.474695739346621]
本稿では,このトピックの今後の研究を促進するために,自律走行認識のための新しいセンサーについて紹介する。
データは2つの8kmルートを繰り返すことで収集され、様々な照明条件と反対の視点を含む。
我々の知る限り、NSAVPデータセットは、ステレオイベントとモノクロカメラと共にステレオサーマルカメラを初めて組み込んだものだ。
論文 参考訳(メタデータ) (2024-01-24T23:25:23Z) - G-MEMP: Gaze-Enhanced Multimodal Ego-Motion Prediction in Driving [71.9040410238973]
我々は、視線データを用いて、運転者の車両のエゴ軌道を推定することに集中する。
次に、GPSとビデオ入力と視線データを組み合わせた新しいマルチモーダルエゴ軌道予測ネットワークであるG-MEMPを開発する。
その結果,G-MEMPは両ベンチマークにおいて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-12-13T23:06:30Z) - Towards Viewpoint Robustness in Bird's Eye View Segmentation [85.99907496019972]
AV知覚モデルがカメラ視点の変化にどのように影響するかを考察する。
投機時のピッチ、ヨー、深さ、高さへの小さな変化は、大きな性能低下につながる。
本稿では,新しいビュー合成技術を導入し,収集したデータをターゲットリグの視点に変換する手法を提案する。
論文 参考訳(メタデータ) (2023-09-11T02:10:07Z) - Point Cloud Forecasting as a Proxy for 4D Occupancy Forecasting [58.45661235893729]
有望な自己管理タスクの1つは、注釈のないLiDARシーケンスからの3Dポイントクラウド予測である。
本課題は,(1)センサ外在物(自動運転車の移動),(2)センサ内在物(特定のLiDARセンサに特有のサンプリングパターン),(3)シーン内の他の物体の形状と動きを暗黙的にキャプチャするアルゴリズムを必要とすることを示す。
センサ外在性および内在性に関する4D占有率予測のポイントクラウドデータをレンダリングすることにより、注釈のないLiDARシーケンスで占有率アルゴリズムをトレーニングし、テストすることができる。
論文 参考訳(メタデータ) (2023-02-25T18:12:37Z) - Scaling Vision-based End-to-End Driving with Multi-View Attention
Learning [7.14967754486195]
本稿では,人間にインスパイアされたHFOVを誘導バイアスとして用いて高分解能画像を処理し,適切な注意機構を組み込むことにより,CILRSを改善するCIL++を提案する。
我々は,車載信号のみによって制御され,条件付き模倣学習によって訓練された強力な視覚ベースの純粋エンドツーエンド駆動ベースラインとして,CILRSをCIL++に置き換えることを提案する。
論文 参考訳(メタデータ) (2023-02-07T02:14:45Z) - SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving [94.11868795445798]
我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークをリリースし,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を向上させるために、画像は32の異なる都市で、1フレームあたり10秒毎に異なる気象条件、期間、場所のシーンで収集される。
我々は、既存の教師付き最先端検出モデル、一般的な自己監督型および半教師付きアプローチ、および将来のモデルの開発方法に関するいくつかの知見について、広範な実験と詳細な分析を行った。
論文 参考訳(メタデータ) (2021-06-21T13:55:57Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - What data do we need for training an AV motion planner? [8.081784897491062]
本研究では,擬似学習に基づくAVプランナの訓練に必要なセンサデータについて検討した。
その結果,10倍の低品質データによるトレーニングは,プランナー性能において1倍のAVグレードデータより優れていることがわかった。
論文 参考訳(メタデータ) (2021-05-26T05:37:12Z) - Yet it moves: Learning from Generic Motions to Generate IMU data from
YouTube videos [5.008235182488304]
我々は、加速度計とジャイロ信号の両方の一般的な動きの回帰モデルをトレーニングして、合成IMUデータを生成する方法を示す。
我々は、回帰モデルにより生成されたシミュレーションデータに基づいてトレーニングされたシステムが、実センサデータに基づいてトレーニングされたシステムのF1スコアの平均の約10%に到達できることを実証した。
論文 参考訳(メタデータ) (2020-11-23T18:16:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。