論文の概要: mmWave Radar-Based Non-Line-of-Sight Pedestrian Localization at T-Junctions Utilizing Road Layout Extraction via Camera
- arxiv url: http://arxiv.org/abs/2508.02348v1
- Date: Mon, 04 Aug 2025 12:31:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:22.329746
- Title: mmWave Radar-Based Non-Line-of-Sight Pedestrian Localization at T-Junctions Utilizing Road Layout Extraction via Camera
- Title(参考訳): カメラを用いた道路レイアウト抽出を利用したTジャンクションにおけるミリ波レーダによる非視線歩行者位置推定
- Authors: Byeonggyu Park, Hee-Yeun Kim, Byonghyok Choi, Hansang Cho, Byungkwan Kim, Soomok Lee, Mingu Jeon, Seong-Woo Kim,
- Abstract要約: 我々は,NLoS歩行者の局所化のために,カメラから推定される道路レイアウトを通してレーダPCDを解釈する新しい枠組みを提案する。
提案手法の有効性を実車に搭載したレーダカメラシステムを用いて実験により検証した。
- 参考スコア(独自算出の注目度): 7.275075845472008
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Pedestrians Localization in Non-Line-of-Sight (NLoS) regions within urban environments poses a significant challenge for autonomous driving systems. While mmWave radar has demonstrated potential for detecting objects in such scenarios, the 2D radar point cloud (PCD) data is susceptible to distortions caused by multipath reflections, making accurate spatial inference difficult. Additionally, although camera images provide high-resolution visual information, they lack depth perception and cannot directly observe objects in NLoS regions. In this paper, we propose a novel framework that interprets radar PCD through road layout inferred from camera for localization of NLoS pedestrians. The proposed method leverages visual information from the camera to interpret 2D radar PCD, enabling spatial scene reconstruction. The effectiveness of the proposed approach is validated through experiments conducted using a radar-camera system mounted on a real vehicle. The localization performance is evaluated using a dataset collected in outdoor NLoS driving environments, demonstrating the practical applicability of the method.
- Abstract(参考訳): 都市環境における非Line-of-Sight(NLoS)領域における歩行者の局所化は、自律運転システムにとって重要な課題である。
mmWaveレーダはそのようなシナリオで物体を検出する可能性を実証しているが、2Dレーダポイント雲(PCD)データはマルチパス反射による歪みの影響を受けやすいため、正確な空間推測が困難である。
さらに、カメラ画像は高解像度の視覚情報を提供するが、深度知覚に欠け、NLoS領域の物体を直接観察することはできない。
本論文では,NLoS歩行者の局部化のために,カメラから推定される道路レイアウトを通してレーダPCDを解釈する新しい枠組みを提案する。
提案手法は,カメラからの視覚情報を利用して2次元レーダPCDを解釈し,空間的シーン再構成を可能にする。
提案手法の有効性を実車に搭載したレーダカメラシステムを用いて実験により検証した。
屋外NLoS運転環境において収集したデータセットを用いて局所化性能を評価し,本手法の有効性を実証した。
関連論文リスト
- Radar-Based NLoS Pedestrian Localization for Darting-Out Scenarios Near Parked Vehicles with Camera-Assisted Point Cloud Interpretation [14.486658289318408]
道路沿いの駐車場から生じる視界のない盲点は、道路安全にとって大きな課題である。
mmWave技術は回折と反射を利用してNLoS領域を観測する。
単眼カメラ画像と2Dレーダポイントクラウドデータを統合するNLoS歩行者位置決めフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-06T02:54:39Z) - NOVA: Navigation via Object-Centric Visual Autonomy for High-Speed Target Tracking in Unstructured GPS-Denied Environments [56.35569661650558]
我々はNOVAというオブジェクト中心のフレームワークを導入し、ロバストな目標追跡と衝突認識ナビゲーションを可能にした。
グローバルマップを構築するのではなく、NOVAはターゲットの参照フレーム内での知覚、推定、制御を定式化する。
我々は,都市迷路や森林の小道,間欠的なGPS損失を伴う建物内の繰り返し遷移など,現実の挑戦的なシナリオにまたがってNOVAを検証する。
論文 参考訳(メタデータ) (2025-06-23T14:28:30Z) - Pole-based Vehicle Localization with Vector Maps: A Camera-LiDAR Comparative Study [6.300346102366891]
道路環境では、交通標識、信号機、街灯など多くの一般的な家具がポールの形をしている。
本稿では,自動アノテート画像に基づいて訓練された軽量ニューラルネットワークを用いて,カメラによるポール検出をリアルタイムに行う手法を提案する。
その結果,オープン道路環境における視線に基づくアプローチの精度が向上した。
論文 参考訳(メタデータ) (2024-12-11T09:05:05Z) - A Resource Efficient Fusion Network for Object Detection in Bird's-Eye View using Camera and Raw Radar Data [7.2508100569856975]
レーダデータの生のレンジ・ドップラースペクトルを用いてカメラ画像を処理する。
カメラエンコーダデコーダアーキテクチャを用いて,対応する特徴を抽出する。
得られた特徴写像はレンジ・アジマス特徴と融合し、RDスペクトルから復元して物体検出を行う。
論文 参考訳(メタデータ) (2024-11-20T13:26:13Z) - RadarOcc: Robust 3D Occupancy Prediction with 4D Imaging Radar [15.776076554141687]
3D占有に基づく知覚パイプラインは、かなり進歩した自律運転を持つ。
現在の方法では、LiDARやカメラの入力を3D占有率予測に頼っている。
本稿では,4次元イメージングレーダセンサを用いた3次元占有予測手法を提案する。
論文 参考訳(メタデータ) (2024-05-22T21:48:17Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - Super-Resolution Radar Imaging with Sparse Arrays Using a Deep Neural
Network Trained with Enhanced Virtual Data [0.4640835690336652]
本稿では,極薄レーダー開口部からのレーダデータを完全に処理できるディープニューラルネットワーク(DNN)に基づく手法を提案する。
提案したDNN処理は、エイリアスフリーレーダイメージングと超解像の両方を提供することができる。
完全に占有された配列で達成されるのとほぼ同じ解像度と画質を同時に提供する。
論文 参考訳(メタデータ) (2023-06-16T13:37:47Z) - NVRadarNet: Real-Time Radar Obstacle and Free Space Detection for
Autonomous Driving [57.03126447713602]
本稿では,自動車のRADARセンサを用いて動的障害物や乾燥可能な自由空間を検出するディープニューラルネットワーク(DNN)を提案する。
ネットワークは組み込みGPU上でリアルタイムよりも高速に動作し、地理的領域にわたって優れた一般化を示す。
論文 参考訳(メタデータ) (2022-09-29T01:30:34Z) - R4Dyn: Exploring Radar for Self-Supervised Monocular Depth Estimation of
Dynamic Scenes [69.6715406227469]
駆動シナリオにおける自己教師付き単眼深度推定は、教師付きアプローチに匹敵する性能を達成した。
本稿では,自己監督型深度推定フレームワーク上に費用効率の高いレーダデータを利用する新しい手法であるR4Dynを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:57:03Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。