論文の概要: Gap Completion in Point Cloud Scene occluded by Vehicles using SGC-Net
- arxiv url: http://arxiv.org/abs/2407.08290v1
- Date: Thu, 11 Jul 2024 08:36:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-12 18:19:14.369712
- Title: Gap Completion in Point Cloud Scene occluded by Vehicles using SGC-Net
- Title(参考訳): SGC-Netを用いた車両による点雲シーンのギャップ補完
- Authors: Yu Feng, Yiming Xu, Yan Xia, Claus Brenner, Monika Sester,
- Abstract要約: 本研究では,都市景観のギャップを埋めることのできるモデルを学ぶために,深層ニューラルネットワークを活用する新しい手法を提案する。
我々は、空隙のないシーンにおける道路境界に沿って仮想車両モデルを配置し、レイキャストアルゴリズムを用いて、空隙のある新しいシーンを作成する革新的な手法を開発した。
実験の結果、満点の97.66%が、高密度の地上真理点雲のシーンと比較して5cmの範囲内にあることが明らかとなった。
- 参考スコア(独自算出の注目度): 10.727960309271868
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent advances in mobile mapping systems have greatly enhanced the efficiency and convenience of acquiring urban 3D data. These systems utilize LiDAR sensors mounted on vehicles to capture vast cityscapes. However, a significant challenge arises due to occlusions caused by roadside parked vehicles, leading to the loss of scene information, particularly on the roads, sidewalks, curbs, and the lower sections of buildings. In this study, we present a novel approach that leverages deep neural networks to learn a model capable of filling gaps in urban scenes that are obscured by vehicle occlusion. We have developed an innovative technique where we place virtual vehicle models along road boundaries in the gap-free scene and utilize a ray-casting algorithm to create a new scene with occluded gaps. This allows us to generate diverse and realistic urban point cloud scenes with and without vehicle occlusion, surpassing the limitations of real-world training data collection and annotation. Furthermore, we introduce the Scene Gap Completion Network (SGC-Net), an end-to-end model that can generate well-defined shape boundaries and smooth surfaces within occluded gaps. The experiment results reveal that 97.66% of the filled points fall within a range of 5 centimeters relative to the high-density ground truth point cloud scene. These findings underscore the efficacy of our proposed model in gap completion and reconstructing urban scenes affected by vehicle occlusions.
- Abstract(参考訳): 近年のモバイルマッピングシステムの進歩により,都市部における3次元データ取得の効率性と利便性が大幅に向上している。
これらのシステムは、車両に搭載されたLiDARセンサーを使用して、広大な都市景観を捉えている。
しかし、道路側駐車車両による閉塞が原因で、特に道路、歩道、縁石、建物下部のシーン情報が失われることが大きな課題となっている。
本研究では,車両の閉塞によって隠蔽される都市景観のギャップを埋めることのできるモデルを学ぶために,ディープニューラルネットワークを活用した新しいアプローチを提案する。
我々は、空隙のないシーンにおける道路境界に沿って仮想車両モデルを配置し、レイキャストアルゴリズムを用いて、空隙のある新しいシーンを作成する革新的な手法を開発した。
これにより、実世界のトレーニングデータ収集とアノテーションの限界を越えながら、車両の閉塞なしに多様な現実的な都市点雲シーンを生成することができる。
さらに,SGC-Net (Scene Gap Completion Network) を導入し,形状境界やスムーズな表面を包含するエンド・ツー・エンドモデルを提案する。
実験の結果、満点の97.66%が、高密度の地上真理点雲のシーンと比較して5cmの範囲内にあることが明らかとなった。
これらの結果は,車両閉塞による都市景観の空隙完成と再建における提案モデルの有効性を裏付けるものである。
関連論文リスト
- Parking Space Detection in the City of Granada [0.0]
本稿では,グラナダ市を中心に,都市部における駐車スペース検出の課題について論じる。
我々は駐車中の車、移動中の車、道路を正確に識別するためにセマンティックセグメンテーション技術を開発し応用する。
都市セマンティックセグメンテーションにおける有効性を示すために, 完全畳み込みネットワーク, ピラミッドネットワーク, 拡張畳み込みネットワークを採用している。
論文 参考訳(メタデータ) (2025-01-11T22:29:12Z) - StreetCrafter: Street View Synthesis with Controllable Video Diffusion Models [59.55232046525733]
我々は,LDARポイントクラウドレンダリングをピクセルレベルの条件として利用する,制御可能なビデオ拡散モデルであるStreetCrafterを紹介する。
さらに、画素レベルのLiDAR条件を利用することで、ターゲットシーンに対して正確なピクセルレベルの編集を行うことができる。
我々のモデルは視点変化を柔軟に制御し、レンダリング領域を満たすためのビューを拡大する。
論文 参考訳(メタデータ) (2024-12-17T18:58:55Z) - Semantic Scene Completion Based 3D Traversability Estimation for Off-Road Terrains [10.521569910467072]
オフロード環境は、自動運転車にとって重要な課題である。
主に構造化された環境のために設計された伝統的な知覚アルゴリズムは、しばしばこれらの条件下で失敗する。
本稿では, ORDformer を用いて, 前向きの視点から, 高密度の移動可能な占有率予測を行う。
論文 参考訳(メタデータ) (2024-12-11T08:36:36Z) - StreetSurfGS: Scalable Urban Street Surface Reconstruction with Planar-based Gaussian Splatting [85.67616000086232]
StreetSurfGSは、スケーラブルな街路景観の再構築に適したガウススプラッティングを利用するための最初の方法である。
StreetSurfGSは、平面ベースのオクツリー表現とセグメンテーショントレーニングを使用して、メモリコストを削減し、ユニークなカメラ特性に対応し、スケーラビリティを確保する。
スパースビューとマルチスケールの課題に対処するために、隣接する情報と長期情報を活用する2段階マッチング戦略を用いる。
論文 参考訳(メタデータ) (2024-10-06T04:21:59Z) - Outdoor Scene Extrapolation with Hierarchical Generative Cellular Automata [70.9375320609781]
我々は,自律走行車(AV)で多量に捕獲された大規模LiDARスキャンから微細な3次元形状を生成することを目指している。
本稿では,空間的にスケーラブルな3次元生成モデルである階層型生成セルオートマトン (hGCA) を提案する。
論文 参考訳(メタデータ) (2024-06-12T14:56:56Z) - LidaRF: Delving into Lidar for Neural Radiance Field on Street Scenes [73.65115834242866]
光リアリスティックシミュレーションは、自律運転のようなアプリケーションにおいて重要な役割を果たす。
しかし, コリニアカメラの動作やスペーサーのサンプリングにより, 街路景観の再現性は低下する。
街路面のNeRF品質を改善するために,Lidarデータのより優れた利用を可能にするいくつかの知見を提案する。
論文 参考訳(メタデータ) (2024-05-01T23:07:12Z) - Street Gaussians: Modeling Dynamic Urban Scenes with Gaussian Splatting [32.59889755381453]
近年の手法では、走行中の車両のポーズをアニメーションに取り入れてNeRFを拡張し、ダイナミックな街路シーンのリアルな視認を可能にしている。
この制限に対処する新たな明示的なシーン表現であるStreet Gaussiansを紹介します。
提案手法は,全データセットで常に最先端の手法より優れる。
論文 参考訳(メタデータ) (2024-01-02T18:59:55Z) - CabiNet: Scaling Neural Collision Detection for Object Rearrangement
with Procedural Scene Generation [54.68738348071891]
私たちはまず、さまざまな日常環境において、650万以上の散らばったシーン(前よりも桁違いに多い)を生成します。
このデータから合成部分点雲をレンダリングし、それをCabiNetモデルアーキテクチャのトレーニングに使用します。
CabiNetは、オブジェクトとシーンポイントの雲を受け入れる衝突モデルである。
論文 参考訳(メタデータ) (2023-04-18T21:09:55Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - Self-supervised Point Cloud Completion on Real Traffic Scenes via
Scene-concerned Bottom-up Mechanism [14.255659581428333]
ポイントクラウド補完は、オブジェクトの不完全な3Dスキャンのための完全な形状を参照することを目的としている。
現在のディープラーニングベースのアプローチは、トレーニングプロセスにおける大規模な完全な形状に依存しています。
本研究では,交通現場の車両に対して,完全なデータを持たない自己監視点クラウド補完手法(TraPCC)を提案する。
論文 参考訳(メタデータ) (2022-03-20T14:42:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。