論文の概要: Scene Flow from Point Clouds with or without Learning
- arxiv url: http://arxiv.org/abs/2011.00320v1
- Date: Sat, 31 Oct 2020 17:24:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 04:49:17.040628
- Title: Scene Flow from Point Clouds with or without Learning
- Title(参考訳): 学習の有無にかかわらず点雲からのシーンフロー
- Authors: Jhony Kaesemodel Pontes, James Hays, and Simon Lucey
- Abstract要約: シーンフロー(Scene flow)は、シーンの3次元運動場である。
現在の学習ベースのアプローチは、ポイントクラウドから直接シーンフローを推定することを目指している。
本稿では,点雲からシーンフローを復元する,シンプルで解釈可能な目的関数を提案する。
- 参考スコア(独自算出の注目度): 47.03163552693887
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scene flow is the three-dimensional (3D) motion field of a scene. It provides
information about the spatial arrangement and rate of change of objects in
dynamic environments. Current learning-based approaches seek to estimate the
scene flow directly from point clouds and have achieved state-of-the-art
performance. However, supervised learning methods are inherently domain
specific and require a large amount of labeled data. Annotation of scene flow
on real-world point clouds is expensive and challenging, and the lack of such
datasets has recently sparked interest in self-supervised learning methods. How
to accurately and robustly learn scene flow representations without labeled
real-world data is still an open problem. Here we present a simple and
interpretable objective function to recover the scene flow from point clouds.
We use the graph Laplacian of a point cloud to regularize the scene flow to be
"as-rigid-as-possible". Our proposed objective function can be used with or
without learning---as a self-supervisory signal to learn scene flow
representations, or as a non-learning-based method in which the scene flow is
optimized during runtime. Our approach outperforms related works in many
datasets. We also show the immediate applications of our proposed method for
two applications: motion segmentation and point cloud densification.
- Abstract(参考訳): シーンフロー(Scene flow)は、シーンの3次元運動場である。
動的環境におけるオブジェクトの空間的配置と変化率に関する情報を提供する。
現在の学習ベースのアプローチは、ポイントクラウドから直接シーンフローを推定し、最先端のパフォーマンスを達成した。
しかし、教師付き学習法は本質的にドメイン固有であり、大量のラベル付きデータを必要とする。
実世界のポイントクラウド上でのシーンフローのアノテーションは高価かつ困難であり、このようなデータセットの欠如は、最近自己教師付き学習方法への関心を喚起している。
実世界のデータをラベル付けせずに、シーンフロー表現を正確かつ堅牢に学習する方法は、まだ未解決の問題である。
本稿では,ポイントクラウドからシーンフローを復元する簡易かつ解釈可能な目的関数を提案する。
点雲のグラフ Laplacian を用いて、シーンフローを正規化して "as-rigid-as-possible" とする。
提案する目的関数は,学習の有無に関わらず,シーンフロー表現を学習するための自己スーパーバイザリー信号として,あるいは実行時にシーンフローを最適化する非学習ベース手法として使用できる。
当社のアプローチは多くのデータセットで関連する作業より優れています。
また,提案手法を,モーションセグメンテーションとポイントクラウドデンシフィケーションという2つのアプリケーションに適用した。
関連論文リスト
- SeFlow: A Self-Supervised Scene Flow Method in Autonomous Driving [18.88208422580103]
連続したLiDARスキャンで各点における3次元運動を予測する。
現在の最先端の手法は、シーンフローネットワークをトレーニングするために注釈付きデータを必要とする。
本研究では,効率的な動的分類を学習に基づくシーンフローパイプラインに統合するSeFlowを提案する。
論文 参考訳(メタデータ) (2024-07-01T18:22:54Z) - PointFlowHop: Green and Interpretable Scene Flow Estimation from
Consecutive Point Clouds [49.7285297470392]
本研究では,PointFlowHopと呼ばれる3次元シーンフローの効率的な推定法を提案する。
ポイントフローホップは2つの連続する点雲を取り、第1点雲の各点の3次元フローベクトルを決定する。
シーンフロー推定タスクを,エゴモーション補償,オブジェクトアソシエーション,オブジェクトワイドモーション推定など,一連のサブタスクに分解する。
論文 参考訳(メタデータ) (2023-02-27T23:06:01Z) - SCOOP: Self-Supervised Correspondence and Optimization-Based Scene Flow [25.577386156273256]
シーンフロー推定は、連続した観察からシーンの3次元運動を見つけることを目的として、コンピュータビジョンにおける長年の課題である。
そこで本研究では,少量のデータから学習可能なシーンフロー推定手法であるSCOOPについて紹介する。
論文 参考訳(メタデータ) (2022-11-25T10:52:02Z) - Unsupervised Learning of 3D Scene Flow with 3D Odometry Assistance [20.735976558587588]
シーンフロー推定は、自律走行場、アクティビティ認識、バーチャルリアリティーフィールドなどの様々なアプリケーションで使われている。
実世界のデータに対して,現場の流れを真実とアノテートすることは困難である。
本稿では,映像の流れの教師なし学習を支援するためにオドメトリ情報を使用し,実世界のLiDARデータを用いてネットワークをトレーニングすることを提案する。
論文 参考訳(メタデータ) (2022-09-11T21:53:43Z) - CO^3: Cooperative Unsupervised 3D Representation Learning for Autonomous
Driving [57.16921612272783]
本研究では,協調コントラスト学習(Cooperative Contrastive Learning)とコンテキスト形状予測(Contextual Shape Prediction)というCO3を提案する。
我々はCO3が屋外の場面でLiDAR点雲の理解を容易にすると信じている。
論文 参考訳(メタデータ) (2022-06-08T17:37:58Z) - Learning Scene Flow in 3D Point Clouds with Noisy Pseudo Labels [71.11151016581806]
そこで本研究では,3次元の3次元動きを点雲からキャプチャするシーンフロー手法を提案する。
提案手法は,最先端の自己教師型アプローチより優れるだけでなく,正確な接地構造を用いた教師型アプローチよりも優れる。
論文 参考訳(メタデータ) (2022-03-23T18:20:03Z) - SCTN: Sparse Convolution-Transformer Network for Scene Flow Estimation [71.2856098776959]
点雲は非秩序であり、その密度は著しく一様ではないため、点雲の3次元運動の推定は困難である。
本稿では,sparse convolution-transformer network (sctn) という新しいアーキテクチャを提案する。
学習した関係に基づく文脈情報が豊富で,対応点の一致に役立ち,シーンフローの推定に有効であることを示す。
論文 参考訳(メタデータ) (2021-05-10T15:16:14Z) - Weakly Supervised Learning of Rigid 3D Scene Flow [81.37165332656612]
本研究では,剛体体として動くエージェント群によって説明できる3次元シーンを多用したデータ駆動シーンフロー推定アルゴリズムを提案する。
4種類の自律運転データセットにおいて,提案手法の有効性と一般化能力を示す。
論文 参考訳(メタデータ) (2021-02-17T18:58:02Z) - Adversarial Self-Supervised Scene Flow Estimation [15.278302535191866]
本研究では,自己監督型シーンフロー推定のためのメトリクス学習手法を提案する。
自己監督型シーンフロー推定のためのベンチマークであるScene Flow Sandboxについて概説する。
論文 参考訳(メタデータ) (2020-11-01T16:37:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。