論文の概要: Gap Completion in Point Cloud Scene occluded by Vehicles using SGC-Net
- arxiv url: http://arxiv.org/abs/2407.08290v1
- Date: Thu, 11 Jul 2024 08:36:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-12 18:19:14.369712
- Title: Gap Completion in Point Cloud Scene occluded by Vehicles using SGC-Net
- Title(参考訳): SGC-Netを用いた車両による点雲シーンのギャップ補完
- Authors: Yu Feng, Yiming Xu, Yan Xia, Claus Brenner, Monika Sester,
- Abstract要約: 本研究では,都市景観のギャップを埋めることのできるモデルを学ぶために,深層ニューラルネットワークを活用する新しい手法を提案する。
我々は、空隙のないシーンにおける道路境界に沿って仮想車両モデルを配置し、レイキャストアルゴリズムを用いて、空隙のある新しいシーンを作成する革新的な手法を開発した。
実験の結果、満点の97.66%が、高密度の地上真理点雲のシーンと比較して5cmの範囲内にあることが明らかとなった。
- 参考スコア(独自算出の注目度): 10.727960309271868
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent advances in mobile mapping systems have greatly enhanced the efficiency and convenience of acquiring urban 3D data. These systems utilize LiDAR sensors mounted on vehicles to capture vast cityscapes. However, a significant challenge arises due to occlusions caused by roadside parked vehicles, leading to the loss of scene information, particularly on the roads, sidewalks, curbs, and the lower sections of buildings. In this study, we present a novel approach that leverages deep neural networks to learn a model capable of filling gaps in urban scenes that are obscured by vehicle occlusion. We have developed an innovative technique where we place virtual vehicle models along road boundaries in the gap-free scene and utilize a ray-casting algorithm to create a new scene with occluded gaps. This allows us to generate diverse and realistic urban point cloud scenes with and without vehicle occlusion, surpassing the limitations of real-world training data collection and annotation. Furthermore, we introduce the Scene Gap Completion Network (SGC-Net), an end-to-end model that can generate well-defined shape boundaries and smooth surfaces within occluded gaps. The experiment results reveal that 97.66% of the filled points fall within a range of 5 centimeters relative to the high-density ground truth point cloud scene. These findings underscore the efficacy of our proposed model in gap completion and reconstructing urban scenes affected by vehicle occlusions.
- Abstract(参考訳): 近年のモバイルマッピングシステムの進歩により,都市部における3次元データ取得の効率性と利便性が大幅に向上している。
これらのシステムは、車両に搭載されたLiDARセンサーを使用して、広大な都市景観を捉えている。
しかし、道路側駐車車両による閉塞が原因で、特に道路、歩道、縁石、建物下部のシーン情報が失われることが大きな課題となっている。
本研究では,車両の閉塞によって隠蔽される都市景観のギャップを埋めることのできるモデルを学ぶために,ディープニューラルネットワークを活用した新しいアプローチを提案する。
我々は、空隙のないシーンにおける道路境界に沿って仮想車両モデルを配置し、レイキャストアルゴリズムを用いて、空隙のある新しいシーンを作成する革新的な手法を開発した。
これにより、実世界のトレーニングデータ収集とアノテーションの限界を越えながら、車両の閉塞なしに多様な現実的な都市点雲シーンを生成することができる。
さらに,SGC-Net (Scene Gap Completion Network) を導入し,形状境界やスムーズな表面を包含するエンド・ツー・エンドモデルを提案する。
実験の結果、満点の97.66%が、高密度の地上真理点雲のシーンと比較して5cmの範囲内にあることが明らかとなった。
これらの結果は,車両閉塞による都市景観の空隙完成と再建における提案モデルの有効性を裏付けるものである。
関連論文リスト
- StreetSurfGS: Scalable Urban Street Surface Reconstruction with Planar-based Gaussian Splatting [85.67616000086232]
StreetSurfGSは、スケーラブルな街路景観の再構築に適したガウススプラッティングを利用するための最初の方法である。
StreetSurfGSは、平面ベースのオクツリー表現とセグメンテーショントレーニングを使用して、メモリコストを削減し、ユニークなカメラ特性に対応し、スケーラビリティを確保する。
スパースビューとマルチスケールの課題に対処するために、隣接する情報と長期情報を活用する2段階マッチング戦略を用いる。
論文 参考訳(メタデータ) (2024-10-06T04:21:59Z) - Outdoor Scene Extrapolation with Hierarchical Generative Cellular Automata [70.9375320609781]
我々は,自律走行車(AV)で多量に捕獲された大規模LiDARスキャンから微細な3次元形状を生成することを目指している。
本稿では,空間的にスケーラブルな3次元生成モデルである階層型生成セルオートマトン (hGCA) を提案する。
論文 参考訳(メタデータ) (2024-06-12T14:56:56Z) - Empowering Urban Traffic Management: Elevated 3D LiDAR for Data Collection and Advanced Object Detection Analysis [4.831084635928491]
本稿では,高機能LiDARセンサのパワーを利用して,交通シナリオにおける3次元物体の検出と解析を変換する新しいフレームワークを提案する。
実世界のトラフィックデータセットの取得に制限があるため、シミュレータを用いて特定のシナリオに対して3Dポイントクラウドを生成する。
論文 参考訳(メタデータ) (2024-05-21T21:12:09Z) - LidaRF: Delving into Lidar for Neural Radiance Field on Street Scenes [73.65115834242866]
光リアリスティックシミュレーションは、自律運転のようなアプリケーションにおいて重要な役割を果たす。
しかし, コリニアカメラの動作やスペーサーのサンプリングにより, 街路景観の再現性は低下する。
街路面のNeRF品質を改善するために,Lidarデータのより優れた利用を可能にするいくつかの知見を提案する。
論文 参考訳(メタデータ) (2024-05-01T23:07:12Z) - SGD: Street View Synthesis with Gaussian Splatting and Diffusion Prior [53.52396082006044]
現在の手法では、トレーニングの観点から大きく逸脱する観点で、レンダリングの品質を維持するのに苦労しています。
この問題は、移動中の車両の固定カメラが捉えた、まばらなトレーニングビューに起因している。
そこで本研究では,拡散モデルを用いて3DGSのキャパシティを向上させる手法を提案する。
論文 参考訳(メタデータ) (2024-03-29T09:20:29Z) - Street Gaussians: Modeling Dynamic Urban Scenes with Gaussian Splatting [32.59889755381453]
近年の手法では、走行中の車両のポーズをアニメーションに取り入れてNeRFを拡張し、ダイナミックな街路シーンのリアルな視認を可能にしている。
この制限に対処する新たな明示的なシーン表現であるStreet Gaussiansを紹介します。
提案手法は,全データセットで常に最先端の手法より優れる。
論文 参考訳(メタデータ) (2024-01-02T18:59:55Z) - CabiNet: Scaling Neural Collision Detection for Object Rearrangement
with Procedural Scene Generation [54.68738348071891]
私たちはまず、さまざまな日常環境において、650万以上の散らばったシーン(前よりも桁違いに多い)を生成します。
このデータから合成部分点雲をレンダリングし、それをCabiNetモデルアーキテクチャのトレーニングに使用します。
CabiNetは、オブジェクトとシーンポイントの雲を受け入れる衝突モデルである。
論文 参考訳(メタデータ) (2023-04-18T21:09:55Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - Self-supervised Point Cloud Completion on Real Traffic Scenes via
Scene-concerned Bottom-up Mechanism [14.255659581428333]
ポイントクラウド補完は、オブジェクトの不完全な3Dスキャンのための完全な形状を参照することを目的としている。
現在のディープラーニングベースのアプローチは、トレーニングプロセスにおける大規模な完全な形状に依存しています。
本研究では,交通現場の車両に対して,完全なデータを持たない自己監視点クラウド補完手法(TraPCC)を提案する。
論文 参考訳(メタデータ) (2022-03-20T14:42:37Z) - VPC-Net: Completion of 3D Vehicles from MLS Point Clouds [16.041815273682317]
Vehicle Points CompletionNet (VPCNet)
本稿では,入力インスタンスからグローバルな特徴を抽出する新しいエンコーダモジュールを提案する。
車両の詳細を入力から保存し、詳細な情報で完全な出力を洗練するために、新しい精細モジュールも提示される。
論文 参考訳(メタデータ) (2020-08-08T00:22:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。