論文の概要: Shape Your Ground: Refining Road Surfaces Beyond Planar Representations
- arxiv url: http://arxiv.org/abs/2504.16103v1
- Date: Tue, 15 Apr 2025 21:20:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:52.829026
- Title: Shape Your Ground: Refining Road Surfaces Beyond Planar Representations
- Title(参考訳): 平面表現を超越した道路表面を仕上げる「地面を形作る」
- Authors: Oussema Dhaouadi, Johannes Meier, Jacques Kaiser, Daniel Cremers,
- Abstract要約: 航空画像からの道路表面の再構築は、自律走行、都市計画、仮想シミュレーションに不可欠である。
既存の再建手法は、しばしば使用性を制限する人工物や不整合を生み出す。
我々は,非均一な合理的B-スプライン(NURBS)表面をフォトグラム再構成やジオデータ提供者から得られる3次元道路点に組み込むことにより,道路表面の平滑化に対処する最初のフレームワークであるFlexRoadを紹介した。
- 参考スコア(独自算出の注目度): 35.63881467885378
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Road surface reconstruction from aerial images is fundamental for autonomous driving, urban planning, and virtual simulation, where smoothness, compactness, and accuracy are critical quality factors. Existing reconstruction methods often produce artifacts and inconsistencies that limit usability, while downstream tasks have a tendency to represent roads as planes for simplicity but at the cost of accuracy. We introduce FlexRoad, the first framework to directly address road surface smoothing by fitting Non-Uniform Rational B-Splines (NURBS) surfaces to 3D road points obtained from photogrammetric reconstructions or geodata providers. Our method at its core utilizes the Elevation-Constrained Spatial Road Clustering (ECSRC) algorithm for robust anomaly correction, significantly reducing surface roughness and fitting errors. To facilitate quantitative comparison between road surface reconstruction methods, we present GeoRoad Dataset (GeRoD), a diverse collection of road surface and terrain profiles derived from openly accessible geodata. Experiments on GeRoD and the photogrammetry-based DeepScenario Open 3D Dataset (DSC3D) demonstrate that FlexRoad considerably surpasses commonly used road surface representations across various metrics while being insensitive to various input sources, terrains, and noise types. By performing ablation studies, we identify the key role of each component towards high-quality reconstruction performance, making FlexRoad a generic method for realistic road surface modeling.
- Abstract(参考訳): 航空画像からの道路面の再構成は、スムーズさ、コンパクト性、精度が重要な品質要因となる自律走行、都市計画、仮想シミュレーションに基本となる。
既存の再建手法は、使用性を制限する人工物や不整合をしばしば生み出すが、下流のタスクは、単純だが精度の犠牲で、道路を平面として表現する傾向にある。
我々は、光グラフ再構成やジオデータ提供者から得られる3次元道路点に、非均一な論理的B-スプライン(NURBS)表面を組み込むことにより、道路表面の平滑化に対処する最初のフレームワークであるFlexRoadを紹介する。
提案手法のコアとなるのは,Elevation-Constrained Space Road Clustering (ECSRC) アルゴリズムを用いて,ロバストな異常補正を行い,表面粗さと嵌合誤差を大幅に低減する。
道路面復元手法の定量的比較を容易にするため,道路面と地形分布の多種多様なコレクションであるGeRoad Dataset(GeRoD)を提案する。
GeRoDとフォトグラメトリに基づくDeepScenario Open 3D Dataset (DSC3D)の実験では、FlexRoadは様々な入力源、地形、騒音タイプに敏感でありながら、様々なメトリクスでよく使われる道路表面表現を大幅に上回っている。
アブレーション研究により,各コンポーネントの高品質な再構成性能に対する重要な役割を同定し,FlexRoadを現実的な路面モデリングの汎用的手法とする。
関連論文リスト
- FlexDrive: Toward Trajectory Flexibility in Driving Scene Reconstruction and Rendering [79.39246982782717]
経路外ビューの再構築の監督として,コンパクトで高品質な画像を作成するために,逆ビューワーピング技術を導入する。
提案手法は,広く使用されているOpenデータセット上で,経路内および経路外再構成およびレンダリング性能を向上する。
論文 参考訳(メタデータ) (2025-02-28T14:32:04Z) - StreetSurfGS: Scalable Urban Street Surface Reconstruction with Planar-based Gaussian Splatting [85.67616000086232]
StreetSurfGSは、スケーラブルな街路景観の再構築に適したガウススプラッティングを利用するための最初の方法である。
StreetSurfGSは、平面ベースのオクツリー表現とセグメンテーショントレーニングを使用して、メモリコストを削減し、ユニークなカメラ特性に対応し、スケーラビリティを確保する。
スパースビューとマルチスケールの課題に対処するために、隣接する情報と長期情報を活用する2段階マッチング戦略を用いる。
論文 参考訳(メタデータ) (2024-10-06T04:21:59Z) - LaneCPP: Continuous 3D Lane Detection using Physical Priors [45.52331418900137]
レーンCPPは、車線構造と道路形状に関する物理的事前知識を活用する連続した3次元車線検出モデルを用いる。
コントリビューションのメリットを示し、3次元車線検出をより堅牢にするための事前利用の意義を実証する。
論文 参考訳(メタデータ) (2024-06-12T16:31:06Z) - RoGs: Large Scale Road Surface Reconstruction with Meshgrid Gaussian [10.50103969885774]
道路面の再建は自動運転において重要な役割を担っている。
本稿では,メッシュグリッドガウシアン(RoGs)を用いた大規模道路表面再構築手法を提案する。
様々な挑戦的な現実世界のシーンにおける道路面の再構築において,優れた結果を得た。
論文 参考訳(メタデータ) (2024-05-23T09:11:47Z) - NeRO: Neural Road Surface Reconstruction [15.99050337416157]
本稿では,道路路面を設計するためのMLP(Multi-Layer Perceptrons)フレームワークを設計し,世界座標x,yとして入力し,高さ,色,意味情報として出力する。
本手法の有効性は,車載カメラのポーズ,LiDAR点雲,SFM点雲などの道路高度源との互換性,スパースラベルやノイズセマンティック予測などの画像のセマンティックノイズに対する堅牢性,高速なトレーニング速度などにより実証される。
論文 参考訳(メタデータ) (2024-05-17T05:41:45Z) - EMIE-MAP: Large-Scale Road Surface Reconstruction Based on Explicit Mesh and Implicit Encoding [21.117919848535422]
EMIE-MAPは,暗黙的メッシュと暗黙的符号化に基づく大規模道路表面再構成手法である。
本手法は,様々な現実の難易度シナリオにおいて,顕著な路面復元性能を実現する。
論文 参考訳(メタデータ) (2024-03-18T13:46:52Z) - RSRD: A Road Surface Reconstruction Dataset and Benchmark for Safe and
Comfortable Autonomous Driving [67.09546127265034]
道路表面の再構築は、車両の走行計画と制御システムの解析と予測を促進するのに役立つ。
我々は,様々な運転条件下で,特定のプラットフォームで収集した実世界,高解像度,高精度のデータセットであるRoad Surface Reconstructionデータセットを紹介した。
約16,000対のステレオ画像、原点雲、地中深度・不均等地図を含む一般的な道路形態を網羅している。
論文 参考訳(メタデータ) (2023-10-03T17:59:32Z) - Indoor Scene Reconstruction with Fine-Grained Details Using Hybrid Representation and Normal Prior Enhancement [50.56517624931987]
多視点RGB画像からの室内シーンの再構成は、平坦領域とテクスチャレス領域の共存により困難である。
近年の手法では、予測された表面正規化によって支援されたニューラルラジアンス場を利用してシーン形状を復元している。
本研究は, 上記の制限に対処して, 高忠実度表面を細かな詳細で再構築することを目的とする。
論文 参考訳(メタデータ) (2023-09-14T12:05:29Z) - RoMe: Towards Large Scale Road Surface Reconstruction via Mesh Representation [9.622389166012741]
RoMeは大規模道路面の堅牢な再構築を目的とした新しいフレームワークである。
我々の評価は、速度、正確性、堅牢性の観点から、RoMeの優位性を裏付けるものである。
RoMeの機能は単なる再構築を超えて、自動運転アプリケーションにおけるオートラベルタスクに重要な価値を提供する。
論文 参考訳(メタデータ) (2023-06-20T08:16:25Z) - Shape, Pose, and Appearance from a Single Image via Bootstrapped
Radiance Field Inversion [54.151979979158085]
提案手法では,自然画像に対する基本的エンドツーエンド再構築フレームワークを導入し,正確な地平のポーズが得られない。
そこで,モデルが解の第一の推算を生成するハイブリッド・インバージョン・スキームを適用する。
当社のフレームワークでは,イメージを10ステップでデレンダリングすることが可能で,現実的なシナリオで使用することが可能です。
論文 参考訳(メタデータ) (2022-11-21T17:42:42Z) - Structure-Aware Completion of Photogrammetric Meshes in Urban Road
Environment [13.7725733099315]
道路上の不要車両をシームレスに除去することによりメッシュの品質を向上させるための構造対応補完手法を提案する。
提案手法は大規模シーンのタイル付きメッシュモデルも処理可能であることに留意する必要がある。
論文 参考訳(メタデータ) (2020-11-23T05:04:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。