論文の概要: MIDAR: Mimicking LiDAR Detection for Traffic Applications with a Lightweight Plug-and-Play Model
- arxiv url: http://arxiv.org/abs/2508.02858v1
- Date: Mon, 04 Aug 2025 19:35:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:55.663732
- Title: MIDAR: Mimicking LiDAR Detection for Traffic Applications with a Lightweight Plug-and-Play Model
- Title(参考訳): MIDAR:軽量プラグアンドプレイモデルによる交通用LiDAR検出の軽減
- Authors: Tianheng Zhu, Yiheng Feng,
- Abstract要約: MIDARは、交通シミュレータから容易に利用できる車両レベルの特徴を用いて、現実的なLiDAR検出を近似するLiDAR検出模倣モデルである。
MIDAR は nuScenes AD データセット上で CenterPoint が生成した検出結果を近似することで 0.909 の AUC を達成する。
- 参考スコア(独自算出の注目度): 3.256565256248141
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As autonomous driving (AD) technology advances, increasing research has focused on leveraging cooperative perception (CP) data collected from multiple AVs to enhance traffic applications. Due to the impracticality of large-scale real-world AV deployments, simulation has become the primary approach in most studies. While game-engine-based simulators like CARLA generate high-fidelity raw sensor data (e.g., LiDAR point clouds) which can be used to produce realistic detection outputs, they face scalability challenges in multi-AV scenarios. In contrast, microscopic traffic simulators such as SUMO scale efficiently but lack perception modeling capabilities. To bridge this gap, we propose MIDAR, a LiDAR detection mimicking model that approximates realistic LiDAR detections using vehicle-level features readily available from microscopic traffic simulators. Specifically, MIDAR predicts true positives (TPs) and false negatives (FNs) from ideal LiDAR detection results based on the spatial layouts and dimensions of surrounding vehicles. A Refined Multi-hop Line-of-Sight (RM-LoS) graph is constructed to encode the occlusion relationships among vehicles, upon which MIDAR employs a GRU-enhanced APPNP architecture to propagate features from the ego AV and occluding vehicles to the prediction target. MIDAR achieves an AUC of 0.909 in approximating the detection results generated by CenterPoint, a mainstream 3D LiDAR detection model, on the nuScenes AD dataset. Two CP-based traffic applications further validate the necessity of such realistic detection modeling, particularly for tasks requiring accurate individual vehicle observations (e.g., position, speed, lane index). As demonstrated in the applications, MIDAR can be seamlessly integrated into traffic simulators and trajectory datasets and will be open-sourced upon publication.
- Abstract(参考訳): 自律運転(AD)技術が進歩するにつれて、複数のAVから収集された協調認識(CP)データを活用して交通アプリケーションを強化する研究が増えている。
大規模な実世界のAV展開の不現実性のため、ほとんどの研究においてシミュレーションが主要なアプローチとなっている。
CARLAのようなゲームエンジンベースのシミュレータは、現実的な検出出力を生成するために使用できる高忠実な生センサデータ(例えばLiDARポイントクラウド)を生成するが、マルチAVシナリオではスケーラビリティの課題に直面している。
対照的に、SUMOのような微視的交通シミュレータは効率良くスケールするが、知覚モデリング能力は欠如している。
このギャップを埋めるために,顕微鏡による交通シミュレータから容易に利用できる車両レベルの特徴を用いて,現実的なLiDAR検出を近似するLiDAR検出模倣モデルであるMIDARを提案する。
具体的には、周囲車両の空間配置と寸法に基づいて、理想的なLiDAR検出結果から真正および偽陰性(FN)を予測する。
MIDARはGRU拡張APPNPアーキテクチャを用いて,エゴAVから車両までの特徴を伝達し,車両間の閉塞関係を符号化するために,RM-LoSグラフを構築した。
MIDARは、nuScenes ADデータセット上で、メインストリームの3DLiDAR検出モデルであるCenterPointによって生成された検出結果を近似して0.909のAUCを達成する。
2つのCPベースのトラフィックアプリケーションは、特に正確な個々の車両観測を必要とするタスク(例えば、位置、速度、車線指数)において、そのような現実的な検出モデルの必要性をさらに検証する。
アプリケーションで示されているように、MIDARはトラフィックシミュレータやトラジェクトリデータセットにシームレスに統合することができ、公開時にオープンソース化される。
関連論文リスト
- RS2AD: End-to-End Autonomous Driving Data Generation from Roadside Sensor Observations [4.219537240663029]
道路沿いのセンサ観測から車載LiDARデータを再構成・合成するための新しいフレームワークであるRS2ADを紹介する。
我々の知る限りでは、道路沿いのセンサー入力から車載LiDARデータを再構築する最初のアプローチである。
論文 参考訳(メタデータ) (2025-03-10T09:08:05Z) - LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [50.808933338389686]
都市景観におけるLiDARスキャンをリアルタイムかつ高忠実に再現するLiDAR-GSを提案する。
この手法は,公開可能な大規模シーンデータセットのレンダリングフレームレートと品質の両面において,最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z) - VaLID: Verification as Late Integration of Detections for LiDAR-Camera Fusion [2.503388496100123]
車両物体検出は、LiDARとカメラデータの両方から恩恵を受ける。
本稿では,各予測境界ボックスが許容可能であるかどうかを検証するモデル適応型遅延融合法VaLIDを提案する。
提案手法はモデル適応型であり,汎用カメラ検出器を用いた場合においても最先端の競争性能を示す。
論文 参考訳(メタデータ) (2024-09-23T20:27:10Z) - Multi-Modal Data-Efficient 3D Scene Understanding for Autonomous Driving [58.16024314532443]
我々は、異なるLiDARスキャンからレーザービーム操作を統合するフレームワークであるLaserMix++を導入し、データ効率の学習を支援するためにLiDAR-カメラ対応を組み込んだ。
結果は、LaserMix++が完全に教師付き代替よりも優れており、5倍のアノテーションで同等の精度を実現していることを示している。
この大幅な進歩は、LiDARベースの3Dシーン理解システムにおける広範囲なラベル付きデータへの依存を減らすための半教師付きアプローチの可能性を示している。
論文 参考訳(メタデータ) (2024-05-08T17:59:53Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - UnLoc: A Universal Localization Method for Autonomous Vehicles using
LiDAR, Radar and/or Camera Input [51.150605800173366]
UnLocは、全ての気象条件におけるマルチセンサー入力によるローカライズのための、新しい統一型ニューラルネットワークアプローチである。
本手法は,Oxford Radar RobotCar,Apollo SouthBay,Perth-WAの各データセットで広く評価されている。
論文 参考訳(メタデータ) (2023-07-03T04:10:55Z) - PCGen: Point Cloud Generator for LiDAR Simulation [10.692184635629792]
既存の方法は、実点雲よりもノイズが多く、完全なデータを生成する。
我々はFPAレイキャストと代理モデルレイドロップを提案する。
最小限のトレーニングデータによって、代理モデルは異なる地理やシーンに一般化することができる。
その結果、シミュレーションデータにより訓練されたオブジェクト検出モデルは、実際のデータトレーニングモデルと同じような結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-10-17T04:13:21Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - Boosting 3D Object Detection by Simulating Multimodality on Point Clouds [51.87740119160152]
本稿では,LiDAR 画像検出器に追従する特徴や応答をシミュレートすることで,単一モダリティ (LiDAR) 3次元物体検出器を高速化する新しい手法を提案する。
このアプローチでは、単一モダリティ検出器をトレーニングする場合のみ、LiDARイメージデータを必要とし、十分にトレーニングされた場合には、推論時にのみLiDARデータが必要である。
nuScenesデータセットの実験結果から,本手法はSOTA LiDARのみの3D検出器よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-06-30T01:44:30Z) - Weighted Bayesian Gaussian Mixture Model for Roadside LiDAR Object
Detection [0.5156484100374059]
背景モデリングは、静的な背景成分を減じることで移動目標を検出するインテリジェントな監視システムに広く利用されている。
多くの道路沿いのLiDARオブジェクト検出手法は、新しいデータポイントと事前訓練されたバックグラウンド参照を比較して前景点をフィルタリングする。
本稿では,各LiDAR点の標高と方位値に基づいて,生のLiDARデータを構造化表現に変換する。
提案手法は,2つの最先端の道路背景モデル,コンピュータビジョンベンチマーク,深層学習ベースラインを比較し,交通量と難易度で評価された点,対象,経路レベルを比較した。
論文 参考訳(メタデータ) (2022-04-20T22:48:05Z) - Dense Voxel Fusion for 3D Object Detection [10.717415797194896]
ボクセル融合 (Voxel Fusion, DVF) は, 多スケール密度ボクセル特徴表現を生成する逐次融合法である。
地上の真理2Dバウンディングボックスラベルを直接トレーニングし、ノイズの多い検出器固有の2D予測を避けます。
提案したマルチモーダルトレーニング戦略は, 誤った2次元予測を用いたトレーニングに比べ, より一般化できることを示す。
論文 参考訳(メタデータ) (2022-03-02T04:51:31Z) - DAE : Discriminatory Auto-Encoder for multivariate time-series anomaly
detection in air transportation [68.8204255655161]
識別オートエンコーダ(DAE)と呼ばれる新しい異常検出モデルを提案する。
通常のLSTMベースのオートエンコーダのベースラインを使用するが、いくつかのデコーダがあり、それぞれ特定の飛行フェーズのデータを取得する。
その結果,DAEは精度と検出速度の両方で良好な結果が得られることがわかった。
論文 参考訳(メタデータ) (2021-09-08T14:07:55Z) - High-Precision Digital Traffic Recording with Multi-LiDAR Infrastructure
Sensor Setups [0.0]
融解したLiDAR点雲と単一LiDAR点雲との差について検討した。
抽出した軌道の評価は, 融合インフラストラクチャーアプローチが追跡結果を著しく増加させ, 数cm以内の精度に達することを示す。
論文 参考訳(メタデータ) (2020-06-22T10:57:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。