論文の概要: Multimodal Gaussian Mixture Model for Realtime Roadside LiDAR Object
Detection
- arxiv url: http://arxiv.org/abs/2204.09804v1
- Date: Wed, 20 Apr 2022 22:48:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-23 03:28:05.267770
- Title: Multimodal Gaussian Mixture Model for Realtime Roadside LiDAR Object
Detection
- Title(参考訳): リアルタイム道路側LiDAR物体検出のためのマルチモーダルガウス混合モデル
- Authors: Tianya Zhang, Peter J. Jin, Yi Ge
- Abstract要約: 多くの道路沿いのLiDARオブジェクト検出手法は、新しい点と事前訓練された背景基準を比較して前景点をフィルタリングする。
本稿では,各LiDAR点の高さと方位値に基づいて,生のLiDARデータを多次元テンソル構造に変換する。
提案手法は最先端の2つのロードサイドLiDAR背景モデルと比較し,ポイントレベル,オブジェクトレベル,パスレベルに基づいて評価した。
- 参考スコア(独自算出の注目度): 0.5156484100374059
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Background modeling is widely used for intelligent surveillance systems to
detect the moving targets by subtracting the static background components. Most
roadside LiDAR object detection methods filter out foreground points by
comparing new points to pre-trained background references based on descriptive
statistics over many frames (e.g., voxel density, slopes, maximum distance).
These solutions are not efficient under heavy traffic, and parameter values are
hard to transfer from one scenario to another. In early studies, the
video-based background modeling methods were considered not suitable for
roadside LiDAR surveillance systems due to the sparse and unstructured point
clouds data. In this paper, the raw LiDAR data were transformed into a
multi-dimensional tensor structure based on the elevation and azimuth value of
each LiDAR point. With this high-order data representation, we break the
barrier to allow the efficient Gaussian Mixture Model (GMM) method for roadside
LiDAR background modeling. The probabilistic GMM is built with superior agility
and real-time capability. The proposed Method was compared against two
state-of-the-art roadside LiDAR background models and evaluated based on point
level, object level, and path level, demonstrating better robustness under
heavy traffic and challenging weather. This multimodal GMM method is capable of
handling dynamic backgrounds with noisy measurements and substantially enhances
the infrastructure-based LiDAR object detection, whereby various 3D modeling
for smart city applications could be created
- Abstract(参考訳): 背景モデリングは、静的な背景成分を減じることで移動対象を検出するインテリジェントな監視システムに広く利用されている。
多くの路面ライダー物体検出法は、多くのフレーム(例えばボクセル密度、斜面、最大距離)の記述統計に基づいて、新しい点と事前訓練された背景参照を比較して前景をフィルタリングする。
これらの解は重いトラフィックでは効率的ではなく、パラメータの値はあるシナリオから別のシナリオへ転送することが難しい。
初期の研究では、ビデオベースの背景モデリング手法は、疎小で非構造化の点群データのため、ロードサイドのLiDAR監視システムには適さないと考えられていた。
本稿では,各LiDAR点の標高と方位値に基づいて,生のLiDARデータを多次元テンソル構造に変換した。
この高次データ表現により、道路側LiDAR背景モデリングのための効率的なガウス混合モデル(GMM)法を実現するための障壁を破る。
確率的GMMは、優れた俊敏性とリアルタイム能力で構築されている。
提案手法は,2つの最先端の道路沿道の背景モデルと比較し,地点レベル,対象レベル,経路レベルに基づいて評価し,交通量の多い環境下でのロバスト性の向上と難易度を実証した。
このマルチモーダルGMM法は、ノイズ測定による動的バックグラウンドの処理が可能であり、インフラベースのLiDARオブジェクト検出を大幅に強化し、スマートシティアプリケーションのための様々な3Dモデリングを作成することができる。
関連論文リスト
- Approaching Outside: Scaling Unsupervised 3D Object Detection from 2D Scene [22.297964850282177]
教師なし3次元検出のためのLiDAR-2D Self-paced Learning (LiSe)を提案する。
RGB画像は、正確な2Dローカライゼーションキューを提供するLiDARデータの貴重な補完となる。
本フレームワークでは,適応型サンプリングと弱いモデルアグリゲーション戦略を組み込んだ自己評価学習パイプラインを考案する。
論文 参考訳(メタデータ) (2024-07-11T14:58:49Z) - VFMM3D: Releasing the Potential of Image by Vision Foundation Model for Monocular 3D Object Detection [80.62052650370416]
モノクル3Dオブジェクト検出は、自律運転やロボティクスなど、さまざまなアプリケーションにおいて重要な役割を担っている。
本稿では,VFMM3Dを提案する。VFMM3Dは,ビジョンファウンデーションモデル(VFM)の機能を利用して,単一ビュー画像を正確にLiDARポイントクラウド表現に変換する,革新的なフレームワークである。
論文 参考訳(メタデータ) (2024-04-15T03:12:12Z) - OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - LiDAR Data Synthesis with Denoising Diffusion Probabilistic Models [1.1965844936801797]
3D LiDARデータの生成モデリングは、自律移動ロボットに有望な応用をもたらす新たな課題である。
我々は,多種多様かつ高忠実な3Dシーンポイント雲を生成可能な,LiDARデータのための新しい生成モデルR2DMを提案する。
本手法は拡散確率モデル (DDPM) を用いて構築され, 生成モデルフレームワークにおいて顕著な結果が得られた。
論文 参考訳(メタデータ) (2023-09-17T12:26:57Z) - Optimal Transport for Change Detection on LiDAR Point Clouds [16.552050876277242]
空気中LiDARデータポイント間の教師なし変更検出は,取得システムからの空間的支持とノイズのアンマッチが困難である。
本稿では,2つの時間的支援による3次元LiDAR点の移動の計算に基づく教師なしアプローチを提案する。
本手法では,教師なしの階層分類が可能であり,従来の最先端の教師なし手法よりも有意な差で性能が向上する。
論文 参考訳(メタデータ) (2023-02-14T13:08:07Z) - Boosting 3D Object Detection by Simulating Multimodality on Point Clouds [51.87740119160152]
本稿では,LiDAR 画像検出器に追従する特徴や応答をシミュレートすることで,単一モダリティ (LiDAR) 3次元物体検出器を高速化する新しい手法を提案する。
このアプローチでは、単一モダリティ検出器をトレーニングする場合のみ、LiDARイメージデータを必要とし、十分にトレーニングされた場合には、推論時にのみLiDARデータが必要である。
nuScenesデータセットの実験結果から,本手法はSOTA LiDARのみの3D検出器よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-06-30T01:44:30Z) - Dense Voxel Fusion for 3D Object Detection [10.717415797194896]
ボクセル融合 (Voxel Fusion, DVF) は, 多スケール密度ボクセル特徴表現を生成する逐次融合法である。
地上の真理2Dバウンディングボックスラベルを直接トレーニングし、ノイズの多い検出器固有の2D予測を避けます。
提案したマルチモーダルトレーニング戦略は, 誤った2次元予測を用いたトレーニングに比べ, より一般化できることを示す。
論文 参考訳(メタデータ) (2022-03-02T04:51:31Z) - MonoDistill: Learning Spatial Features for Monocular 3D Object Detection [80.74622486604886]
本稿では,LiDAR信号からの空間情報を単分子3D検出器に導入するための簡易かつ効果的な手法を提案する。
得られたデータを用いて、ベースラインモデルと同じアーキテクチャで3D検出器をトレーニングする。
実験の結果,提案手法はベースラインモデルの性能を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-01-26T09:21:41Z) - Roadside Lidar Vehicle Detection and Tracking Using Range And Intensity
Background Subtraction [0.0]
本稿では,2つの教師なし学習アルゴリズムを組み合わせた道路側LiDAR物体検出手法を提案する。
この手法は商用トラフィックデータ収集プラットフォームに対して検証された。
論文 参考訳(メタデータ) (2022-01-13T00:54:43Z) - Depth-conditioned Dynamic Message Propagation for Monocular 3D Object
Detection [86.25022248968908]
モノラル3Dオブジェクト検出の問題を解決するために、コンテキストと奥行きを認識する特徴表現を学びます。
KITTIベンチマークデータセットにおける単眼的アプローチにおける最新の結果を示す。
論文 参考訳(メタデータ) (2021-03-30T16:20:24Z) - SelfVoxeLO: Self-supervised LiDAR Odometry with Voxel-based Deep Neural
Networks [81.64530401885476]
本稿では,これら2つの課題に対処するために,自己教師型LiDARオドメトリー法(SelfVoxeLO)を提案する。
具体的には、生のLiDARデータを直接処理する3D畳み込みネットワークを提案し、3D幾何パターンをよりよく符号化する特徴を抽出する。
我々は,KITTIとApollo-SouthBayという2つの大規模データセット上での手法の性能を評価する。
論文 参考訳(メタデータ) (2020-10-19T09:23:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。