論文の概要: Compressed Map Priors for 3D Perception
- arxiv url: http://arxiv.org/abs/2601.00139v1
- Date: Wed, 31 Dec 2025 23:38:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-05 15:04:33.276765
- Title: Compressed Map Priors for 3D Perception
- Title(参考訳): 3次元知覚のための圧縮マップ
- Authors: Brady Zhou, Philipp Krähenbühl,
- Abstract要約: 本稿では,空間的事前学習のための簡易かつ効果的なフレームワークである圧縮マップ優先(CMP)を提案する。
CMPはバイナライズされたハッシュマップを使用し、32textKB/textkm2$しか必要としない。
これは、複数のアーキテクチャにわたるnuScenesデータセット上での3Dオブジェクト検出において、大幅に、一貫した改善をもたらす。
- 参考スコア(独自算出の注目度): 23.194896974785397
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human drivers rarely travel where no person has gone before. After all, thousands of drivers use busy city roads every day, and only one can claim to be the first. The same holds for autonomous computer vision systems. The vast majority of the deployment area of an autonomous vision system will have been visited before. Yet, most autonomous vehicle vision systems act as if they are encountering each location for the first time. In this work, we present Compressed Map Priors (CMP), a simple but effective framework to learn spatial priors from historic traversals. The map priors use a binarized hashmap that requires only $32\text{KB}/\text{km}^2$, a $20\times$ reduction compared to the dense storage. Compressed Map Priors easily integrate into leading 3D perception systems at little to no extra computational costs, and lead to a significant and consistent improvement in 3D object detection on the nuScenes dataset across several architectures.
- Abstract(参考訳): 人間のドライバーは、これまで誰も行っていないところを滅多に旅行しません。
結局のところ、何千人ものドライバーが毎日にぎやかな街路を使っている。
自律型コンピュータビジョンシステムも同様である。
自律型視覚システムの展開領域の大部分は、これまで訪れてきたものだ。
しかし、ほとんどの自動運転車の視覚システムは、まるで初めてそれぞれの場所に遭遇しているかのように振る舞う。
本研究は, 歴史的トラバーサルから空間的事前を学習するための, 単純かつ効果的なフレームワークである圧縮マップ優先(CMP)を提案する。
先述のマップは二項化ハッシュマップを使用しており、これは高密度ストレージに比べてわずか32\text{KB}/\text{km}^2$であり、20\times$還元である。
Compressed Map Priorsは、計算コストが少なくても、主要な3D認識システムに簡単に統合でき、複数のアーキテクチャにわたるnuScenesデータセット上での3Dオブジェクト検出において、大幅に、一貫した改善をもたらす。
関連論文リスト
- FrontierNet: Learning Visual Cues to Explore [54.8265603996238]
この研究は、3Dマップからゴールポーズを抽出する制限に対処するため、効率的な自律探索に2Dビジュアルキューを活用することを目的としている。
本稿では、FrontierNetをコアコンポーネントとする、視覚のみのフロンティアベースの探索システムを提案する。
提案手法は,既存の3次元目標抽出手法に代わるもので,早期探索効率の15%向上を実現している。
論文 参考訳(メタデータ) (2025-01-08T16:25:32Z) - PreSight: Enhancing Autonomous Vehicle Perception with City-Scale NeRF Priors [31.820169879886564]
新しい都市をナビゲートする際、人間は徐々に、その後の訪問中にリアルタイムの知覚を補うための予備的なメンタルマップを開発していく。
このような人間的アプローチに触発されて、私たちはPreSightという新しいフレームワークを導入しました。
提案手法では,都市規模のニューラルフィールドを過去の旅行データで最適化し,ニューラルプライドを生成する。
これらの先行は意味論と幾何学的詳細に富み、手動のアノテーションなしで導出され、様々な最先端の知覚モデルをシームレスに拡張することができる。
論文 参考訳(メタデータ) (2024-03-14T03:52:33Z) - Prior Based Online Lane Graph Extraction from Single Onboard Camera
Image [133.68032636906133]
単眼カメラ画像からレーングラフをオンラインに推定する。
前者は、トランスフォーマーベースのWasserstein Autoencoderを通じてデータセットから抽出される。
オートエンコーダは、最初のレーングラフ推定を強化するために使用される。
論文 参考訳(メタデータ) (2023-07-25T08:58:26Z) - SNAP: Self-Supervised Neural Maps for Visual Positioning and Semantic
Understanding [57.108301842535894]
我々は、地上と頭上の画像からリッチなニューラル2Dマップを学習するディープネットワークSNAPを紹介する。
我々は、異なる入力から推定されるニューラルマップの整列をトレーニングし、何千万ものストリートビュー画像のカメラポーズでのみ監視する。
SNAPは、従来の手法の範囲を超えて、挑戦的な画像クエリの場所を解決できる。
論文 参考訳(メタデータ) (2023-06-08T17:54:47Z) - Satellite Image Based Cross-view Localization for Autonomous Vehicle [59.72040418584396]
本稿では,市販の高精細衛星画像を使用可能な地図として利用することにより,良好な精度でクロスビュー車両のローカライゼーションを実現することができることを示す。
本手法はKITTIとFord Multi-AVの季節データセットを地上ビューとして,Google Mapsを衛星ビューとして検証した。
論文 参考訳(メタデータ) (2022-07-27T13:16:39Z) - MP3: A Unified Model to Map, Perceive, Predict and Plan [84.07678019017644]
MP3は、入力が生のセンサーデータと高レベルのコマンドであるマップレス運転に対するエンドツーエンドのアプローチである。
提案手法は, より安全で, 快適であり, 長期クローズループシミュレーションにおいて, ベースラインよりもコマンドを追従できることを示す。
論文 参考訳(メタデータ) (2021-01-18T00:09:30Z) - Monocular Vision based Crowdsourced 3D Traffic Sign Positioning with
Unknown Camera Intrinsics and Distortion Coefficients [11.38332845467423]
カメラの焦点距離,主点,歪み係数を事前に知ることなく,3次元信号位置の計算手法を実証する。
我々はそれぞれ0.26mと1.38mの平均的な単行程と絶対的な位置決め精度を達成した。
論文 参考訳(メタデータ) (2020-07-09T07:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。