論文の概要: MapNeRF: Incorporating Map Priors into Neural Radiance Fields for
Driving View Simulation
- arxiv url: http://arxiv.org/abs/2307.14981v2
- Date: Sun, 6 Aug 2023 08:35:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 20:15:17.782479
- Title: MapNeRF: Incorporating Map Priors into Neural Radiance Fields for
Driving View Simulation
- Title(参考訳): MapNeRF:ドライビングビューシミュレーションのためのニューラルラジアンスフィールドへのマッププリエントの導入
- Authors: Chenming Wu, Jiadai Sun, Zhelun Shen and Liangjun Zhang
- Abstract要約: 本稿では,道路のセマンティックな整合性を持つ軌道外駆動ビューを合成するために,地図先行情報をニューラルラジアンス場に組み込むことを提案する。
実験結果から,車載カメラシミュレーションにおいて,不規則な視点でセマンティックな一貫性が得られることが示された。
- 参考スコア(独自算出の注目度): 9.205005016314624
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Simulating camera sensors is a crucial task in autonomous driving. Although
neural radiance fields are exceptional at synthesizing photorealistic views in
driving simulations, they still fail to generate extrapolated views. This paper
proposes to incorporate map priors into neural radiance fields to synthesize
out-of-trajectory driving views with semantic road consistency. The key insight
is that map information can be utilized as a prior to guiding the training of
the radiance fields with uncertainty. Specifically, we utilize the coarse
ground surface as uncertain information to supervise the density field and warp
depth with uncertainty from unknown camera poses to ensure multi-view
consistency. Experimental results demonstrate that our approach can produce
semantic consistency in deviated views for vehicle camera simulation. The
supplementary video can be viewed at https://youtu.be/jEQWr-Rfh3A.
- Abstract(参考訳): カメラセンサーのシミュレーションは自動運転にとって重要な課題だ。
ニューラル・ラミアンス・フィールドは、運転シミュレーションにおいてフォトリアリスティックなビューを合成するのに例外的だが、外挿的なビューを生成しない。
本稿では,道路のセマンティックな整合性を持つ軌道外駆動ビューを合成するために,地図先行情報をニューラルラジアンス場に組み込むことを提案する。
重要な洞察は、地図情報は不確実性を持つ放射場の訓練を導く前に活用できるということである。
具体的には、粗面を不確定な情報として利用し、未知のカメラポーズからの不確かさを伴う密度場とワープ深さを監視し、複数視点の一貫性を確保する。
実験の結果,車載カメラシミュレーションにおいて,分散ビューにおける意味的一貫性が得られた。
補足ビデオはhttps://youtu.be/jEQWr-Rfh3Aで見ることができる。
関連論文リスト
- Learning autonomous driving from aerial imagery [67.06858775696453]
フォトグラムシミュレーターは、生成済みの資産を新しいビューに変換することによって、新しいビューを合成することができる。
我々は、ニューラルネットワーク場(NeRF)を中間表現として使用し、地上車両の視点から新しいビューを合成する。
論文 参考訳(メタデータ) (2024-10-18T05:09:07Z) - LidaRF: Delving into Lidar for Neural Radiance Field on Street Scenes [73.65115834242866]
光リアリスティックシミュレーションは、自律運転のようなアプリケーションにおいて重要な役割を果たす。
しかし, コリニアカメラの動作やスペーサーのサンプリングにより, 街路景観の再現性は低下する。
街路面のNeRF品質を改善するために,Lidarデータのより優れた利用を可能にするいくつかの知見を提案する。
論文 参考訳(メタデータ) (2024-05-01T23:07:12Z) - OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - Car-Studio: Learning Car Radiance Fields from Single-View and Endless
In-the-wild Images [16.075690774805622]
本稿では,制約のない画像の学習と,処理された画像からのデータセット構築のためのパイプラインを提案する。
シミュレータの要件を満たすため,都市景観の重要部分である車両の放射場を設計する。
In-the-wild画像から構築したデータセットを用いて、制御可能な外観編集機能を徐々に提示する。
論文 参考訳(メタデータ) (2023-07-26T07:44:34Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - LiDAR-as-Camera for End-to-End Driving [1.0323063834827415]
Ouster LiDARは、深度、強度、周囲の放射線チャンネルを備えたサラウンドビューのLiDARイメージを出力することができる。
これらの測定は、同じセンサーから始まり、時間と空間で完全に整列する。
このようなLiDAR画像は、実車走行追従作業に十分であり、テスト条件下では少なくともカメラベースモデルに対して等しく動作することを示す。
研究の第2の方向において、非政治予測シーケンスの時間的スムーズさは、一般的に使用される平均絶対誤差と実際のオンライン運転能力と等しく相関することが明らかとなった。
論文 参考訳(メタデータ) (2022-06-30T10:06:49Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Testing the Safety of Self-driving Vehicles by Simulating Perception and
Prediction [88.0416857308144]
センサシミュレーションは高価であり,領域ギャップが大きいため,センサシミュレーションに代わる方法を提案する。
我々は、自動運転車の知覚と予測システムの出力を直接シミュレートし、現実的な動き計画テストを可能にする。
論文 参考訳(メタデータ) (2020-08-13T17:20:02Z) - SurfelGAN: Synthesizing Realistic Sensor Data for Autonomous Driving [27.948417322786575]
本稿では,現実的なシナリオセンサデータを生成するための,シンプルで効果的な手法を提案する。
われわれのアプローチでは、テクスチャマップされたサーフを使用して、初期車両のパスやセットのパスからシーンを効率的に再構築する。
次に、SurfelGANネットワークを利用して、現実的なカメライメージを再構築し、自動運転車の新たな位置と方向を推定する。
論文 参考訳(メタデータ) (2020-05-08T04:01:14Z) - PLOP: Probabilistic poLynomial Objects trajectory Planning for
autonomous driving [8.105493956485583]
条件付き模倣学習アルゴリズムを用いて,エゴ車とその周辺地域の軌道を推定する。
私たちのアプローチは計算効率が高く、オンボードセンサーのみに依存します。
公開データセットnuScenesでオフラインで評価する。
論文 参考訳(メタデータ) (2020-03-09T16:55:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。