論文の概要: Implicit 3D scene reconstruction using deep learning towards efficient collision understanding in autonomous driving
- arxiv url: http://arxiv.org/abs/2506.15806v1
- Date: Wed, 18 Jun 2025 18:42:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:04.800208
- Title: Implicit 3D scene reconstruction using deep learning towards efficient collision understanding in autonomous driving
- Title(参考訳): 深層学習を用いた自律走行における効率的な衝突理解のためのインシシシト3次元シーン再構成
- Authors: Akarshani Ramanayake, Nihal Kodikara,
- Abstract要約: 本研究では,LiDARデータとディープニューラルネットワークを利用して静的符号付き距離関数(SDF)マップを構築する学習型3Dシーン再構築手法を開発した。
予備実験の結果,衝突検出性能は特に混雑・動環境において著しく向上することが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In crowded urban environments where traffic is dense, current technologies struggle to oversee tight navigation, but surface-level understanding allows autonomous vehicles to safely assess proximity to surrounding obstacles. 3D or 2D scene mapping of the surrounding objects is an essential task in addressing the above problem. Despite its importance in dense vehicle traffic conditions, 3D scene reconstruction of object shapes with higher boundary level accuracy is not yet entirely considered in current literature. The sign distance function represents any shape through parameters that calculate the distance from any point in space to the closest obstacle surface, making it more efficient in terms of storage. In recent studies, researchers have started to formulate problems with Implicit 3D reconstruction methods in the autonomous driving domain, highlighting the possibility of using sign distance function to map obstacles effectively. This research addresses this gap by developing a learning-based 3D scene reconstruction methodology that leverages LiDAR data and a deep neural network to build a the static Signed Distance Function (SDF) maps. Unlike traditional polygonal representations, this approach has the potential to map 3D obstacle shapes with more boundary-level details. Our preliminary results demonstrate that this method would significantly enhance collision detection performance, particularly in congested and dynamic environments.
- Abstract(参考訳): 交通が密集した都市環境では、現在の技術は厳密なナビゲーションの監督に苦慮しているが、表面レベルでの理解により、自動運転車は周囲の障害物に近づいたことを安全に評価することができる。
周囲の物体の3次元または2次元のシーンマッピングは、上記の問題に対処する上で欠かせない課題である。
密集した車両交通条件において重要であるにもかかわらず、境界レベルの精度の高い物体形状の3次元シーン再構成は、現在の文献で完全には検討されていない。
符号距離関数は、空間内の任意の点から最も近い障害物面までの距離を計算するパラメータを通して任意の形状を表す。
近年,自律走行領域におけるインプリシット3次元再構成手法の問題点の定式化が始まっており,障害を効果的に地図化するために手動距離関数を用いることの可能性を強調している。
本研究では、LiDARデータとディープニューラルネットワークを活用して静的符号付き距離関数(SDF)マップを構築する学習ベースの3Dシーン再構築手法を開発することにより、このギャップに対処する。
従来の多角形表現とは異なり、このアプローチはより境界レベルの詳細で3次元障害物形状をマッピングする可能性がある。
予備実験の結果,衝突検出性能は特に混雑・動環境において著しく向上することが示された。
関連論文リスト
- GeoDrive: 3D Geometry-Informed Driving World Model with Precise Action Control [50.67481583744243]
実世界モデルにロバストな3次元形状条件を明示的に統合したGeoDriveを紹介する。
車両の位置を編集することでレンダリングを強化するため,トレーニング中の動的編集モジュールを提案する。
動作精度と空間認識の両面で既存のモデルよりも優れていた。
論文 参考訳(メタデータ) (2025-05-28T14:46:51Z) - Street Gaussians without 3D Object Tracker [86.62329193275916]
既存の方法は、標準空間における動的オブジェクトを再構築するために、オブジェクトポーズの労働集約的な手動ラベリングに依存している。
本研究では,3次元オブジェクト融合戦略における2次元ディープトラッカーの関連性を利用して,安定なオブジェクト追跡モジュールを提案する。
我々は、軌道誤差を自律的に補正し、見逃した検出を回復する暗黙の特徴空間に、モーションラーニング戦略を導入することで、避けられないトラッキングエラーに対処する。
論文 参考訳(メタデータ) (2024-12-07T05:49:42Z) - Neural Semantic Map-Learning for Autonomous Vehicles [85.8425492858912]
本稿では,道路環境のコヒーレントな地図を作成するために,車両群から収集した局所部分写像を中心インスタンスに融合するマッピングシステムを提案する。
本手法は,シーン特異的なニューラルサイン距離場を用いて,雑音と不完全局所部分写像を併用する。
我々は,記憶効率の高いスパース機能グリッドを活用して大規模にスケールし,シーン再構築における不確実性をモデル化するための信頼スコアを導入する。
論文 参考訳(メタデータ) (2024-10-10T10:10:03Z) - HeightFormer: A Semantic Alignment Monocular 3D Object Detection Method from Roadside Perspective [11.841338298700421]
本研究では,空間的前駆体とVoxel Pooling formerを統合した3次元物体検出フレームワークを提案する。
Rope3DとDAIR-V2X-Iデータセットを用いて実験を行い、提案アルゴリズムが車とサイクリストの両方を検知する際の性能を実証した。
論文 参考訳(メタデータ) (2024-10-10T09:37:33Z) - LaneCPP: Continuous 3D Lane Detection using Physical Priors [45.52331418900137]
レーンCPPは、車線構造と道路形状に関する物理的事前知識を活用する連続した3次元車線検出モデルを用いる。
コントリビューションのメリットを示し、3次元車線検出をより堅牢にするための事前利用の意義を実証する。
論文 参考訳(メタデータ) (2024-06-12T16:31:06Z) - Real-time 3D semantic occupancy prediction for autonomous vehicles using memory-efficient sparse convolution [4.204990010424084]
自動運転車では、エゴ車の周囲の3D環境をリアルタイムで理解することが不可欠である。
State of the art 3D mapping method leverageer with cross-attention mechanism to elevate 2D vision-centric camera features into the 3D domain。
本稿では、正面2Dカメラ画像とLiDARスキャンから特徴を抽出し、3Dセマンティック占有予測にスパース畳み込みネットワーク(Minkowski Engine)を用いる手法を提案する。
論文 参考訳(メタデータ) (2024-03-13T17:50:59Z) - 3D Data Augmentation for Driving Scenes on Camera [50.41413053812315]
本稿では,Drive-3DAugと呼ばれる3次元データ拡張手法を提案する。
まずNeural Radiance Field(NeRF)を用いて,背景および前景の3次元モデルの再構成を行う。
そして、予め定義された背景の有効領域に適応した位置と向きの3Dオブジェクトを配置することにより、拡張駆動シーンを得ることができる。
論文 参考訳(メタデータ) (2023-03-18T05:51:05Z) - ONCE-3DLanes: Building Monocular 3D Lane Detection [41.46466150783367]
OnCE-3DLanesは3次元空間にレーンレイアウトアノテーションを付加した実世界の自律走行データセットである。
点雲と画像ピクセルとの明確な関係を利用して、データセットのアノテーションパイプラインは、高品質な3Dレーンの位置を自動的に生成するように設計されている。
論文 参考訳(メタデータ) (2022-04-30T16:35:25Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。