論文の概要: Aligning Bird-Eye View Representation of Point Cloud Sequences using
Scene Flow
- arxiv url: http://arxiv.org/abs/2305.02909v1
- Date: Thu, 4 May 2023 15:16:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-05 15:06:26.819186
- Title: Aligning Bird-Eye View Representation of Point Cloud Sequences using
Scene Flow
- Title(参考訳): シーンフローを用いた点雲列の鳥眼ビュー表示の調整
- Authors: Minh-Quan Dao, Vincent Fr\'emont, Elwan H\'ery
- Abstract要約: 低解像度の点雲は、その空間性のため、物体検出法では困難である。
本研究では,単一フレーム検出器がシーンフローを計算してBird-Eye View表現を修正できるプラグインモジュールを開発した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Low-resolution point clouds are challenging for object detection methods due
to their sparsity. Densifying the present point cloud by concatenating it with
its predecessors is a popular solution to this challenge. Such concatenation is
possible thanks to the removal of ego vehicle motion using its odometry. This
method is called Ego Motion Compensation (EMC). Thanks to the added points, EMC
significantly improves the performance of single-frame detectors. However, it
suffers from the shadow effect that manifests in dynamic objects' points
scattering along their trajectories. This effect results in a misalignment
between feature maps and objects' locations, thus limiting performance
improvement to stationary and slow-moving objects only. Scene flow allows
aligning point clouds in 3D space, thus naturally resolving the misalignment in
feature spaces. By observing that scene flow computation shares several
components with 3D object detection pipelines, we develop a plug-in module that
enables single-frame detectors to compute scene flow to rectify their Bird-Eye
View representation. Experiments on the NuScenes dataset show that our module
leads to a significant increase (up to 16%) in the Average Precision of large
vehicles, which interestingly demonstrates the most severe shadow effect. The
code is published at https://github.com/quan-dao/pc-corrector.
- Abstract(参考訳): 低解像度のポイントクラウドは、そのスパーシティのため、オブジェクト検出手法では困難である。
現在のポイントクラウドをその前身と結合することで否定することは、この課題に対する一般的な解決策である。
このような結合は、そのオドメトリを用いた自走車運動の除去によって可能となる。
この方法は Ego Motion Compensation (EMC) と呼ばれる。
追加ポイントにより、EMCはシングルフレーム検出器の性能を大幅に改善する。
しかし、その軌道に沿って散乱する動的物体の点に現れる影効果に悩まされる。
この効果により、機能マップとオブジェクトの位置の誤認が生じ、静止および遅い移動オブジェクトのみの性能改善が制限される。
シーンフローは3次元空間における点雲の整列を可能にし、特徴空間における不一致を自然に解消する。
シーンフロー計算が3dオブジェクト検出パイプラインと複数のコンポーネントを共有していることを観察し,単一フレーム検出器がシーンフローを計算して鳥眼映像表現を補正できるプラグインモジュールを開発した。
nuscenesデータセットの実験では、我々のモジュールは、大型車両の平均精度が大幅に向上し(最大16%)、最も深刻なシャドー効果を示すことが示されています。
コードはhttps://github.com/quan-dao/pc-correctorで公開されている。
関連論文リスト
- Ego-Motion Estimation and Dynamic Motion Separation from 3D Point Clouds
for Accumulating Data and Improving 3D Object Detection [0.1474723404975345]
高解像度レーダーセンサーの1つは、ライダーセンサーと比較して、生成された点雲の空間性である。
このコントリビューションは、View-of-Delftデータセット上のレーダーポイント雲の蓄積制限を分析する。
エゴモーション推定と動的動き補正を応用して物体検出性能を向上させる実験を行った。
論文 参考訳(メタデータ) (2023-08-29T14:53:16Z) - DORT: Modeling Dynamic Objects in Recurrent for Multi-Camera 3D Object
Detection and Tracking [67.34803048690428]
本稿では、この問題を解決するためにRecurrenT(DORT)の動的オブジェクトをモデル化することを提案する。
DORTは、重い計算負担を軽減する動き推定のために、オブジェクトワイズローカルボリュームを抽出する。
フレキシブルで実用的で、ほとんどのカメラベースの3Dオブジェクト検出器に差し込むことができる。
論文 参考訳(メタデータ) (2023-03-29T12:33:55Z) - GMA3D: Local-Global Attention Learning to Estimate Occluded Motions of
Scene Flow [3.2738068278607426]
局所的および大域的非閉塞点の運動情報から閉塞点の運動情報を推定するトランスフォーマフレームワークに基づくGMA3Dモジュールを提案する。
実験により,GMA3Dはシーンフロー,特に実シーンにおける閉塞問題を解くことができることがわかった。
論文 参考訳(メタデータ) (2022-10-07T03:09:00Z) - Exploiting More Information in Sparse Point Cloud for 3D Single Object
Tracking [9.693724357115762]
3Dオブジェクトトラッキングは、3Dコンピュータビジョンにおける重要なタスクである。
点雲の空間性は、類似性を計算し、対象を見つけるのを難しくする。
本稿では3次元オブジェクト追跡のためのスパース・トゥ・デンス・トランスフォーマー・ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-02T13:38:30Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - CloudAttention: Efficient Multi-Scale Attention Scheme For 3D Point
Cloud Learning [81.85951026033787]
この作業にトランスフォーマーをセットし、それらを形状分類と部分およびシーンセグメンテーションのための階層的なフレームワークに組み込む。
また、各イテレーションにおけるサンプリングとグループ化を活用して、効率的でダイナミックなグローバルなクロスアテンションを計算します。
提案した階層モデルは,最先端の形状分類を平均精度で達成し,従来のセグメンテーション法と同等の結果を得る。
論文 参考訳(メタデータ) (2022-07-31T21:39:15Z) - IDEA-Net: Dynamic 3D Point Cloud Interpolation via Deep Embedding
Alignment [58.8330387551499]
我々は、点方向軌跡(すなわち滑らかな曲線)の推定として問題を定式化する。
本稿では,学習した時間的一貫性の助けを借りて問題を解消する,エンドツーエンドのディープラーニングフレームワークであるIDEA-Netを提案する。
各種点群における本手法の有効性を実証し, 定量的かつ視覚的に, 最先端の手法に対する大幅な改善を観察する。
論文 参考訳(メタデータ) (2022-03-22T10:14:08Z) - Embracing Single Stride 3D Object Detector with Sparse Transformer [63.179720817019096]
自律走行のためのLiDARを用いた3次元物体検出では、物体サイズと入力シーンサイズとの比が2次元検出の場合に比べて有意に小さい。
多くの3D検出器は2D検出器の一般的な慣習に従っており、点雲の定量化後も特徴マップを分解する。
本稿では,SST(Single-stride Sparse Transformer)を提案する。
論文 参考訳(メタデータ) (2021-12-13T02:12:02Z) - 3D Object Tracking with Transformer [6.848996369226086]
特徴融合は、対象のオブジェクト情報を含めることで、類似性コンピューティングをより効率的にする。
既存のLiDARベースのアプローチのほとんどは、抽出されたポイントクラウド機能を直接使用して類似性を計算している。
本稿では,トランスアーキテクチャに基づく機能融合ネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-28T07:03:19Z) - Associate-3Ddet: Perceptual-to-Conceptual Association for 3D Point Cloud
Object Detection [64.2159881697615]
3Dポイント雲からの物体検出は依然として難しい課題だが、最近の研究ではディープラーニング技術によって封筒を推し進めている。
本稿では,特徴表現の堅牢性を高めるために,ドメイン適応のようなアプローチを提案する。
我々の単純で効果的なアプローチは、3Dポイントクラウドオブジェクト検出の性能を根本的に向上させ、最先端の結果を達成する。
論文 参考訳(メタデータ) (2020-06-08T05:15:06Z) - Boundary-Aware Dense Feature Indicator for Single-Stage 3D Object
Detection from Point Clouds [32.916690488130506]
本稿では,3次元検出器が境界を意識して点雲の最も密集した領域に焦点を合わせるのを支援する普遍モジュールを提案する。
KITTIデータセットの実験により、DENFIはベースライン単段検出器の性能を著しく改善することが示された。
論文 参考訳(メタデータ) (2020-04-01T01:21:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。