論文の概要: HiMo: High-Speed Objects Motion Compensation in Point Clouds
- arxiv url: http://arxiv.org/abs/2503.00803v1
- Date: Sun, 02 Mar 2025 08:55:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:15:26.638998
- Title: HiMo: High-Speed Objects Motion Compensation in Point Clouds
- Title(参考訳): HiMo:ポイント雲における高速物体運動補償
- Authors: Qingwen Zhang, Ajinkya Khoche, Yi Yang, Li Ling, Sina Sharif Mansouri, Olov Andersson, Patric Jensfelt,
- Abstract要約: 我々は、ポイントクラウドの歪みの根底にある理由を特徴付け、これがパブリックデータセットに存在することを示す。
物体の動き補償にシーンフロー推定を利用する新しいパイプラインHiMoを導入する。
また, 文献に確固とした運動歪み指標が欠如していることから, 補償性能評価のための2つの指標を提案する。
- 参考スコア(独自算出の注目度): 18.617901304679812
- License:
- Abstract: LiDAR point clouds often contain motion-induced distortions, degrading the accuracy of object appearances in the captured data. In this paper, we first characterize the underlying reasons for the point cloud distortion and show that this is present in public datasets. We find that this distortion is more pronounced in high-speed environments such as highways, as well as in multi-LiDAR configurations, a common setup for heavy vehicles. Previous work has dealt with point cloud distortion from the ego-motion but fails to consider distortion from the motion of other objects. We therefore introduce a novel undistortion pipeline, HiMo, that leverages scene flow estimation for object motion compensation, correcting the depiction of dynamic objects. We further propose an extension of a state-of-the-art self-supervised scene flow method. Due to the lack of well-established motion distortion metrics in the literature, we also propose two metrics for compensation performance evaluation: compensation accuracy at a point level and shape similarity on objects. To demonstrate the efficacy of our method, we conduct extensive experiments on the Argoverse 2 dataset and a new real-world dataset. Our new dataset is collected from heavy vehicles equipped with multi-LiDARs and on highways as opposed to mostly urban settings in the existing datasets. The source code, including all methods and the evaluation data, will be provided upon publication. See https://kin-zhang.github.io/HiMo for more details.
- Abstract(参考訳): LiDAR点雲は、しばしば動きによって引き起こされる歪みを含み、捕獲されたデータにおける物体の外観の精度を低下させる。
本稿では、まず、点雲歪みの根本原因を特徴付け、これがパブリックデータセットに存在することを示す。
この歪みは、高速道路などの高速環境や、重車両の一般的な構成であるマルチLiDAR構成においてより顕著であることがわかった。
それまでの作業では、エゴ運動からの点雲の歪みに対処してきたが、他の物体の動きからの歪みを考慮できなかった。
そこで我々は,動的物体の描写を補正し,物体の動き補償にシーンフロー推定を利用する新しい非歪パイプラインHiMoを導入する。
さらに,最先端の自己監督型シーンフロー手法の拡張を提案する。
また, 文献に確固とした運動歪み指標が欠如していることから, 補償性能評価のための2つの指標として, 点レベルでの補償精度と物体の形状類似性を提案する。
提案手法の有効性を示すため,Argoverse 2データセットと実世界の新しいデータセットについて広範な実験を行った。
我々の新しいデータセットは、既存のデータセットの都市環境とは対照的に、マルチLiDARと高速道路を備えた重車から収集される。
すべてのメソッドと評価データを含むソースコードは、公開時に提供される。
詳細はhttps://kin-zhang.github.io/HiMoを参照。
関連論文リスト
- The Drunkard's Odometry: Estimating Camera Motion in Deforming Scenes [79.00228778543553]
このデータセットは、3Dシーンの中で地上の真実を語る最初の大規模なカメラ軌道である。
リアルな3Dビルディングのシミュレーションでは、膨大な量のデータと地上の真実のラベルが得られます。
本稿では,光学的フロー推定を剛体カメラ運動に分解するDrunkard's Odometryと呼ばれる,変形可能な新しいオドメトリー法を提案する。
論文 参考訳(メタデータ) (2023-06-29T13:09:31Z) - Aligning Bird-Eye View Representation of Point Cloud Sequences using
Scene Flow [0.0]
低解像度の点雲は、その空間性のため、物体検出法では困難である。
本研究では,単一フレーム検出器がシーンフローを計算してBird-Eye View表現を修正できるプラグインモジュールを開発した。
論文 参考訳(メタデータ) (2023-05-04T15:16:21Z) - DORT: Modeling Dynamic Objects in Recurrent for Multi-Camera 3D Object
Detection and Tracking [67.34803048690428]
本稿では、この問題を解決するためにRecurrenT(DORT)の動的オブジェクトをモデル化することを提案する。
DORTは、重い計算負担を軽減する動き推定のために、オブジェクトワイズローカルボリュームを抽出する。
フレキシブルで実用的で、ほとんどのカメラベースの3Dオブジェクト検出器に差し込むことができる。
論文 参考訳(メタデータ) (2023-03-29T12:33:55Z) - Adaptive Multi-source Predictor for Zero-shot Video Object Segmentation [68.56443382421878]
ゼロショットビデオオブジェクトセグメンテーション(ZVOS)のための新しい適応型マルチソース予測器を提案する。
静的オブジェクト予測器では、RGBソースは、同時に深度および静注ソースに変換される。
実験の結果,提案モデルは3つのZVOSベンチマークにおいて最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-03-18T10:19:29Z) - Lidar with Velocity: Motion Distortion Correction of Point Clouds from
Oscillating Scanning Lidars [5.285472406047901]
移動物体からのライダー点雲の歪みは、自律運転において重要な問題である。
グスタフソンをベースとしたライダーとカメラの融合は,全速度を推定し,ライダーの歪みを補正するために提案される。
このフレームワークは実際の道路データに基づいて評価され、融合法は従来のICP法やポイントクラウド法よりも優れている。
論文 参考訳(メタデータ) (2021-11-18T03:13:08Z) - LiMoSeg: Real-time Bird's Eye View based LiDAR Motion Segmentation [8.184561295177623]
本稿では,光検出・ラング(LiDAR)データの動作セグメント化のための新しいリアルタイムアーキテクチャを提案する。
我々は2D Birdのアイビュー表現における2つの連続したLiDARデータをスキャンし、静的または移動としてピクセルワイズ分類を行う。
Nvidia Jetson Xavierという,一般的に使用されている自動車組み込みプラットフォーム上では,低レイテンシの8ミリ秒を実証する。
論文 参考訳(メタデータ) (2021-11-08T23:40:55Z) - Fog Simulation on Real LiDAR Point Clouds for 3D Object Detection in
Adverse Weather [92.84066576636914]
本研究は,霧の天候下でのLiDARによる3次元物体検出の課題に対処する。
我々は、物理的に正確な霧をクリア・ウェザー・シーンにシミュレートすることでこの問題に対処する。
Seeing Through Fogデータセットに強力な3Dオブジェクト検出ベースラインを提供するのはこれが初めてです。
論文 参考訳(メタデータ) (2021-08-11T14:37:54Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z) - Scalable Scene Flow from Point Clouds in the Real World [30.437100097997245]
オープンデータセットに基づくシーンフローの大規模ベンチマークを新たに導入します。
実際のLiDARデータの量に基づいて、これまでの作業がバウンドされているかを示す。
フルポイントクラウド上でリアルタイム推論を提供するモデルアーキテクチャFastFlow3Dを紹介します。
論文 参考訳(メタデータ) (2021-03-01T20:56:05Z) - A Flow Base Bi-path Network for Cross-scene Video Crowd Understanding in
Aerial View [93.23947591795897]
本稿では,これらの課題に対処し,ドローンから収集した視覚的データから参加者を自動的に理解する。
クロスシーンテストで発生する背景雑音を軽減するために, 二重ストリーム群カウントモデルを提案する。
極暗環境下での集団密度推定問題に対処するために,ゲームグランドセフトオートV(GTAV)によって生成された合成データを導入する。
論文 参考訳(メタデータ) (2020-09-29T01:48:24Z) - Any Motion Detector: Learning Class-agnostic Scene Dynamics from a
Sequence of LiDAR Point Clouds [4.640835690336654]
動き検出と動きパラメータ推定のための時間的文脈アグリゲーションの新しいリアルタイム手法を提案する。
本稿では,固有点雲列の固有オドメトリック変換に匹敵する性能で,リアルタイムな推論を実現するためのエゴモーション補償層を提案する。
論文 参考訳(メタデータ) (2020-04-24T10:40:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。