論文の概要: Learning Scene Dynamics from Point Cloud Sequences
- arxiv url: http://arxiv.org/abs/2111.08755v1
- Date: Tue, 16 Nov 2021 19:52:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-19 02:40:48.633029
- Title: Learning Scene Dynamics from Point Cloud Sequences
- Title(参考訳): ポイントクラウドシーケンスからのシーンダイナミクスの学習
- Authors: Pan He, Patrick Emami, Sanjay Ranka, Anand Rangarajan
- Abstract要約: 本稿では,一列に1組の点雲に対して3次元のシーンフローを予測することを目的とした,時間的シーンフロー推定(SSFE)という新たな問題を提案する。
本稿では,SPCM-Netアーキテクチャを導入し,近隣の点群間のマルチスケール相関を計算してこの問題を解決する。
我々は,この手法を逐次点雲予測のために効果的に修正できることを実証した。
- 参考スコア(独自算出の注目度): 8.163697683448811
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding 3D scenes is a critical prerequisite for autonomous agents.
Recently, LiDAR and other sensors have made large amounts of data available in
the form of temporal sequences of point cloud frames. In this work, we propose
a novel problem -- sequential scene flow estimation (SSFE) -- that aims to
predict 3D scene flow for all pairs of point clouds in a given sequence. This
is unlike the previously studied problem of scene flow estimation which focuses
on two frames.
We introduce the SPCM-Net architecture, which solves this problem by
computing multi-scale spatiotemporal correlations between neighboring point
clouds and then aggregating the correlation across time with an order-invariant
recurrent unit. Our experimental evaluation confirms that recurrent processing
of point cloud sequences results in significantly better SSFE compared to using
only two frames. Additionally, we demonstrate that this approach can be
effectively modified for sequential point cloud forecasting (SPF), a related
problem that demands forecasting future point cloud frames.
Our experimental results are evaluated using a new benchmark for both SSFE
and SPF consisting of synthetic and real datasets. Previously, datasets for
scene flow estimation have been limited to two frames. We provide non-trivial
extensions to these datasets for multi-frame estimation and prediction. Due to
the difficulty of obtaining ground truth motion for real-world datasets, we use
self-supervised training and evaluation metrics. We believe that this benchmark
will be pivotal to future research in this area. All code for benchmark and
models will be made accessible.
- Abstract(参考訳): 3dシーンを理解することは、自律エージェントにとって重要な前提条件である。
近年、LiDARや他のセンサーは、点雲フレームの時間的シーケンスの形で大量のデータを利用できるようになった。
そこで本研究では,一対の点雲に対する3次元シーンフローの予測を目的とした,シーケンシャルシーンフロー推定(SSFE)という新たな問題を提案する。
これは、2つのフレームに焦点をあてたシーンフロー推定の問題とは異なります。
本研究では,SPCM-Netアーキテクチャを導入し,隣接する点群間の複数スケールの時空間相関を計算し,次数不変のリカレントユニットで時間的相関を集約することでこの問題を解決する。
実験により, 点列の繰り返し処理により, SSFEは2フレームしか使用せず, SSFEが著しく向上することが確認された。
さらに,本手法は,将来的なクラウドフレームの予測を要求される関連する問題である逐次点クラウド予測(SPF)に対して,効果的に修正可能であることを示す。
実験結果は合成データと実データからなるssfeとspfのベンチマークを用いて評価した。
これまで、シーンフロー推定用のデータセットは2フレームに制限されていた。
マルチフレーム推定と予測のために,これらのデータセットに対する非自明な拡張を提供する。
実世界のデータセットでは,真理動作の獲得が困難であるため,自己教師付きトレーニングと評価指標を用いる。
このベンチマークは、この分野の将来の研究にとって重要なものだと考えています。
ベンチマークとモデルのすべてのコードはアクセス可能である。
関連論文リスト
- OPUS: Occupancy Prediction Using a Sparse Set [64.60854562502523]
学習可能なクエリの集合を用いて、占有された場所とクラスを同時に予測するフレームワークを提案する。
OPUSには、モデルパフォーマンスを高めるための非自明な戦略が組み込まれている。
最も軽量なモデルではOcc3D-nuScenesデータセットの2倍 FPS に優れたRayIoUが得られる一方、最も重いモデルは6.1 RayIoUを上回ります。
論文 参考訳(メタデータ) (2024-09-14T07:44:22Z) - Point Cloud Pre-training with Diffusion Models [62.12279263217138]
我々は、ポイントクラウド拡散事前学習(PointDif)と呼ばれる新しい事前学習手法を提案する。
PointDifは、分類、セグメンテーション、検出など、さまざまな下流タスクのために、さまざまな現実世界のデータセット間で大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-25T08:10:05Z) - Pushing the Limits of Pre-training for Time Series Forecasting in the
CloudOps Domain [54.67888148566323]
クラウドオペレーションドメインから,大規模時系列予測データセットを3つ導入する。
強力なゼロショットベースラインであり、モデルとデータセットサイズの両方において、さらなるスケーリングの恩恵を受けています。
これらのデータセットと結果を取得することは、古典的および深層学習のベースラインを事前訓練された方法と比較した総合的なベンチマーク結果の集合である。
論文 参考訳(メタデータ) (2023-10-08T08:09:51Z) - SCOOP: Self-Supervised Correspondence and Optimization-Based Scene Flow [25.577386156273256]
シーンフロー推定は、連続した観察からシーンの3次元運動を見つけることを目的として、コンピュータビジョンにおける長年の課題である。
そこで本研究では,少量のデータから学習可能なシーンフロー推定手法であるSCOOPについて紹介する。
論文 参考訳(メタデータ) (2022-11-25T10:52:02Z) - RCP: Recurrent Closest Point for Scene Flow Estimation on 3D Point
Clouds [44.034836961967144]
シーンフローや点雲の登録を含む3次元運動推定が注目されている。
最近の手法では、正確な3次元フローを推定するためのコストボリュームを構築するために、ディープニューラルネットワークを使用している。
問題を2つのインターレースステージに分解し、第1段階では3次元フローをポイントワイズに最適化し、第2段階ではリカレントネットワークでグローバルに正規化する。
論文 参考訳(メタデータ) (2022-05-23T04:04:30Z) - IDEA-Net: Dynamic 3D Point Cloud Interpolation via Deep Embedding
Alignment [58.8330387551499]
我々は、点方向軌跡(すなわち滑らかな曲線)の推定として問題を定式化する。
本稿では,学習した時間的一貫性の助けを借りて問題を解消する,エンドツーエンドのディープラーニングフレームワークであるIDEA-Netを提案する。
各種点群における本手法の有効性を実証し, 定量的かつ視覚的に, 最先端の手法に対する大幅な改善を観察する。
論文 参考訳(メタデータ) (2022-03-22T10:14:08Z) - Residual 3D Scene Flow Learning with Context-Aware Feature Extraction [11.394559627312743]
ユークリッド空間の文脈構造情報を活用するために,新しいコンテキスト対応集合 conv 層を提案する。
また, 遠距離移動に対処するため, 残留流微細化層に明示的な残留流学習構造を提案する。
提案手法は, これまでのすべての成果を, 少なくとも25%以上の知識に上回りながら, 最先端の性能を達成する。
論文 参考訳(メタデータ) (2021-09-10T06:15:18Z) - SCTN: Sparse Convolution-Transformer Network for Scene Flow Estimation [71.2856098776959]
点雲は非秩序であり、その密度は著しく一様ではないため、点雲の3次元運動の推定は困難である。
本稿では,sparse convolution-transformer network (sctn) という新しいアーキテクチャを提案する。
学習した関係に基づく文脈情報が豊富で,対応点の一致に役立ち,シーンフローの推定に有効であることを示す。
論文 参考訳(メタデータ) (2021-05-10T15:16:14Z) - Scalable Scene Flow from Point Clouds in the Real World [30.437100097997245]
オープンデータセットに基づくシーンフローの大規模ベンチマークを新たに導入します。
実際のLiDARデータの量に基づいて、これまでの作業がバウンドされているかを示す。
フルポイントクラウド上でリアルタイム推論を提供するモデルアーキテクチャFastFlow3Dを紹介します。
論文 参考訳(メタデータ) (2021-03-01T20:56:05Z) - Occlusion Guided Scene Flow Estimation on 3D Point Clouds [4.518012967046983]
3次元シーンフロー推定は、環境に与えられた深度や範囲のセンサーを知覚する上で欠かせないツールである。
本稿では,フレーム間のフローとオクルージョンの両方の学習を密に結合する,OGSF-Netと呼ばれる新しいシーンフローアーキテクチャを提案する。
これらの共生が組み合わさって宇宙の流れをより正確に予測できる。
論文 参考訳(メタデータ) (2020-11-30T15:22:03Z) - Learning multiview 3D point cloud registration [74.39499501822682]
本稿では,エンドツーエンドで学習可能なマルチビュー3Dポイントクラウド登録アルゴリズムを提案する。
このアプローチは、エンドツーエンドのトレーニングが可能で、計算コストが小さく、最先端のマージンよりも優れています。
論文 参考訳(メタデータ) (2020-01-15T03:42:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。