論文の概要: Spatial Retrieval Augmented Autonomous Driving
- arxiv url: http://arxiv.org/abs/2512.06865v1
- Date: Sun, 07 Dec 2025 14:40:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.562873
- Title: Spatial Retrieval Augmented Autonomous Driving
- Title(参考訳): 空間検索型自律運転
- Authors: Xiaosong Jia, Chenhe Zhang, Yule Jiang, Songbur Wong, Zhiyuan Zhang, Chen Chen, Shaofeng Zhang, Xuanhe Zhou, Xue Yang, Junchi Yan, Yu-Gang Jiang,
- Abstract要約: 既存の自動運転システムは、環境認識のためのセンサーに頼っている。
本稿では,オフラインで取得した地理画像を付加入力として導入する空間検索パラダイムを提案する。
この新しい自動運転パラダイムのさらなる研究のために、データセットキュレーションコード、データ、ベンチマークをオープンソースにします。
- 参考スコア(独自算出の注目度): 81.39665750557526
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Existing autonomous driving systems rely on onboard sensors (cameras, LiDAR, IMU, etc) for environmental perception. However, this paradigm is limited by the drive-time perception horizon and often fails under limited view scope, occlusion or extreme conditions such as darkness and rain. In contrast, human drivers are able to recall road structure even under poor visibility. To endow models with this ``recall" ability, we propose the spatial retrieval paradigm, introducing offline retrieved geographic images as an additional input. These images are easy to obtain from offline caches (e.g, Google Maps or stored autonomous driving datasets) without requiring additional sensors, making it a plug-and-play extension for existing AD tasks. For experiments, we first extend the nuScenes dataset with geographic images retrieved via Google Maps APIs and align the new data with ego-vehicle trajectories. We establish baselines across five core autonomous driving tasks: object detection, online mapping, occupancy prediction, end-to-end planning, and generative world modeling. Extensive experiments show that the extended modality could enhance the performance of certain tasks. We will open-source dataset curation code, data, and benchmarks for further study of this new autonomous driving paradigm.
- Abstract(参考訳): 既存の自動運転システムは、環境認識のために搭載されたセンサー(カメラ、LiDAR、IMUなど)に依存している。
しかし、このパラダイムはドライブタイムの知覚地平線によって制限されており、視野や閉塞、暗黒や雨のような極端な条件下では失敗することが多い。
対照的に、人間のドライバーは視界が悪くても道路構造を思い出すことができる。
このような「リコール」能力を持つモデルを実現するために,オフラインで取得した地理画像を付加入力として導入する空間探索パラダイムを提案する。
これらの画像は、追加のセンサーを必要とすることなく、オフラインキャッシュ(例えば、Googleマップや保存された自律運転データセット)から簡単に取得でき、既存のADタスクのプラグアンドプレイ拡張になる。
実験のために、まず、Google Maps APIを介して検索された地理画像でnuScenesデータセットを拡張し、新しいデータをego-vehicle trajectoriesと整列させる。
オブジェクト検出,オンラインマッピング,占有率予測,エンドツーエンド計画,生成的世界モデリングという,5つの中核的な自律運転タスクのベースラインを確立する。
広範囲な実験により、拡張されたモダリティは特定のタスクの性能を高めることが示されている。
この新しい自動運転パラダイムのさらなる研究のために、データセットキュレーションコード、データ、ベンチマークをオープンソースにします。
関連論文リスト
- Scaling Up Occupancy-centric Driving Scene Generation: Dataset and Method [54.461213497603154]
作業中心の手法は、最近、フレームとモダリティをまたいだ一貫した条件付けを提供することで、最先端の結果を得た。
Nuplan-Occは、広く使われているNuplanベンチマークから構築された、これまでで最大の占有率データセットである。
高品質な占有、多視点ビデオ、LiDAR点雲を共同で合成する統合フレームワークを開発した。
論文 参考訳(メタデータ) (2025-10-27T03:52:45Z) - Transfer Your Perspective: Controllable 3D Generation from Any Viewpoint in a Driving Scene [56.73568220959019]
共同自動運転(CAV)は有望な方向のようだが、開発のためのデータ収集は簡単ではない。
本研究では,運転シーンにおける異なる視点から現実的な知覚を生み出すことを目的とした,救助支援のための新しいサロゲートを提案する。
シミュレーションされたコラボレーティブデータと実車データを組み合わせた,最初のソリューションを提案する。
論文 参考訳(メタデータ) (2025-02-10T17:07:53Z) - aiMotive Dataset: A Multimodal Dataset for Robust Autonomous Driving
with Long-Range Perception [0.0]
このデータセットは、同期して校正されたLiDAR、カメラ、および360度の視野をカバーするレーダーセンサーを備えた176のシーンで構成されている。
収集したデータは、昼間、夜、雨の間に、高速道路、都市、郊外で撮影された。
我々は3次元物体検出のための一次元・多モードベースラインモデルを訓練した。
論文 参考訳(メタデータ) (2022-11-17T10:19:59Z) - Towards Optimal Strategies for Training Self-Driving Perception Models
in Simulation [98.51313127382937]
合成ドメインのみにおけるラベルの使用に焦点を当てる。
提案手法では,ニューラル不変表現の学習方法と,シミュレータからデータをサンプリングする方法に関する理論的にインスピレーションを得た視点を導入する。
マルチセンサーデータを用いた鳥眼視車両分割作業におけるアプローチについて紹介する。
論文 参考訳(メタデータ) (2021-11-15T18:37:43Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - The NEOLIX Open Dataset for Autonomous Driving [1.4091801425319965]
自律走行領域におけるNEOLIXデータセットとその応用について述べる。
私たちのデータセットには、ポイントクラウドラベル付き約30,000フレームと、アノテーション付き600k以上の3Dバウンディングボックスが含まれています。
論文 参考訳(メタデータ) (2020-11-27T02:27:39Z) - PLOP: Probabilistic poLynomial Objects trajectory Planning for
autonomous driving [8.105493956485583]
条件付き模倣学習アルゴリズムを用いて,エゴ車とその周辺地域の軌道を推定する。
私たちのアプローチは計算効率が高く、オンボードセンサーのみに依存します。
公開データセットnuScenesでオフラインで評価する。
論文 参考訳(メタデータ) (2020-03-09T16:55:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。