論文の概要: Learning Scene Flow in 3D Point Clouds with Noisy Pseudo Labels
- arxiv url: http://arxiv.org/abs/2203.12655v1
- Date: Wed, 23 Mar 2022 18:20:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-25 12:40:04.160242
- Title: Learning Scene Flow in 3D Point Clouds with Noisy Pseudo Labels
- Title(参考訳): うるさい擬似ラベルを用いた3次元点雲内のシーンフローの学習
- Authors: Bing Li, Cheng Zheng, Guohao Li, Bernard Ghanem
- Abstract要約: そこで本研究では,3次元の3次元動きを点雲からキャプチャするシーンフロー手法を提案する。
提案手法は,最先端の自己教師型アプローチより優れるだけでなく,正確な接地構造を用いた教師型アプローチよりも優れる。
- 参考スコア(独自算出の注目度): 71.11151016581806
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel scene flow method that captures 3D motions from point
clouds without relying on ground-truth scene flow annotations. Due to the
irregularity and sparsity of point clouds, it is expensive and time-consuming
to acquire ground-truth scene flow annotations. Some state-of-the-art
approaches train scene flow networks in a self-supervised learning manner via
approximating pseudo scene flow labels from point clouds. However, these
methods fail to achieve the performance level of fully supervised methods, due
to the limitations of point cloud such as sparsity and lacking color
information. To provide an alternative, we propose a novel approach that
utilizes monocular RGB images and point clouds to generate pseudo scene flow
labels for training scene flow networks. Our pseudo label generation module
infers pseudo scene labels for point clouds by jointly leveraging rich
appearance information in monocular images and geometric information of point
clouds. To further reduce the negative effect of noisy pseudo labels on the
training, we propose a noisy-label-aware training scheme by exploiting the
geometric relations of points. Experiment results show that our method not only
outperforms state-of-the-art self-supervised approaches, but also outperforms
some supervised approaches that use accurate ground-truth flows.
- Abstract(参考訳): そこで本研究では,3次元の3次元動きを点雲からキャプチャするシーンフロー手法を提案する。
点雲の不規則さと空白さのため、地平線フローアノテーションを取得するのに時間と費用がかかる。
最先端のいくつかのアプローチは、ポイントクラウドから擬似シーンフローラベルを近似することで、自己教師付き学習方法でシーンフローネットワークを訓練する。
しかし、スパルシリティやカラー情報の欠如といったポイントクラウドの制限のため、これらの手法は完全な教師付き手法のパフォーマンスレベルを達成できなかった。
そこで本研究では,単眼のRGB画像と点雲を用いてシーンフローネットワークをトレーニングするための擬似シーンフローラベルを生成する手法を提案する。
擬似ラベル生成モジュールは,単眼画像におけるリッチな外観情報と点雲の幾何学的情報を同時に活用することにより,ポイントクラウドの擬似シーンラベルを推定する。
擬似ラベルが学習に与える負の効果をさらに低減するため, 点の幾何学的関係を利用して, 雑音を意識した学習手法を提案する。
実験の結果,本手法は最先端の自己教師ありアプローチに勝るだけでなく,精度の高い地中流れを用いた教師ありアプローチにも勝ることがわかった。
関連論文リスト
- Self-Supervised 3D Scene Flow Estimation and Motion Prediction using
Local Rigidity Prior [100.98123802027847]
点群における3次元シーンフロー推定とクラス非依存動作予測について検討した。
我々は,一方向の剛性動作推定により,自己教師型学習のための擬似シーンフローラベルを生成する。
本手法は,自己監督型シーンフロー学習における最先端性能を実現する。
論文 参考訳(メタデータ) (2023-10-17T14:06:55Z) - Data Augmentation-free Unsupervised Learning for 3D Point Cloud
Understanding [61.30276576646909]
ソフトクラスタリング(SoftClu)と呼ばれる,移動可能な点レベルの特徴を学習するための,ポイントクラウドに対する拡張不要な教師なしアプローチを提案する。
我々は,クラスタに対するポイントのアフィリエイトをプロキシとして利用し,擬似ラベル予測タスクを通じて自己学習を可能にする。
論文 参考訳(メタデータ) (2022-10-06T10:18:16Z) - 3D Scene Flow Estimation on Pseudo-LiDAR: Bridging the Gap on Estimating
Point Motion [19.419030878019974]
3次元シーンフローは、3次元ユークリッド空間において、現在の時刻の点が次回に流れる様子を特徴付ける。
3次元空間に2次元画素の密接な性質を導入することにより、予測されたシーンフローの安定性が向上する。
より効果的な3次元シーンフローの教師なし学習を実現するために, 差分整合損失を提案する。
論文 参考訳(メタデータ) (2022-09-27T03:27:09Z) - Unsupervised Learning of 3D Scene Flow with 3D Odometry Assistance [20.735976558587588]
シーンフロー推定は、自律走行場、アクティビティ認識、バーチャルリアリティーフィールドなどの様々なアプリケーションで使われている。
実世界のデータに対して,現場の流れを真実とアノテートすることは困難である。
本稿では,映像の流れの教師なし学習を支援するためにオドメトリ情報を使用し,実世界のLiDARデータを用いてネットワークをトレーニングすることを提案する。
論文 参考訳(メタデータ) (2022-09-11T21:53:43Z) - RCP: Recurrent Closest Point for Scene Flow Estimation on 3D Point
Clouds [44.034836961967144]
シーンフローや点雲の登録を含む3次元運動推定が注目されている。
最近の手法では、正確な3次元フローを推定するためのコストボリュームを構築するために、ディープニューラルネットワークを使用している。
問題を2つのインターレースステージに分解し、第1段階では3次元フローをポイントワイズに最適化し、第2段階ではリカレントネットワークでグローバルに正規化する。
論文 参考訳(メタデータ) (2022-05-23T04:04:30Z) - Self-Point-Flow: Self-Supervised Scene Flow Estimation from Point Clouds
with Optimal Transport and Random Walk [59.87525177207915]
シーンフローを近似する2点雲間の対応性を確立するための自己教師型手法を開発した。
本手法は,自己教師付き学習手法の最先端性能を実現する。
論文 参考訳(メタデータ) (2021-05-18T03:12:42Z) - SCTN: Sparse Convolution-Transformer Network for Scene Flow Estimation [71.2856098776959]
点雲は非秩序であり、その密度は著しく一様ではないため、点雲の3次元運動の推定は困難である。
本稿では,sparse convolution-transformer network (sctn) という新しいアーキテクチャを提案する。
学習した関係に基づく文脈情報が豊富で,対応点の一致に役立ち,シーンフローの推定に有効であることを示す。
論文 参考訳(メタデータ) (2021-05-10T15:16:14Z) - Adversarial Self-Supervised Scene Flow Estimation [15.278302535191866]
本研究では,自己監督型シーンフロー推定のためのメトリクス学習手法を提案する。
自己監督型シーンフロー推定のためのベンチマークであるScene Flow Sandboxについて概説する。
論文 参考訳(メタデータ) (2020-11-01T16:37:37Z) - Scene Flow from Point Clouds with or without Learning [47.03163552693887]
シーンフロー(Scene flow)は、シーンの3次元運動場である。
現在の学習ベースのアプローチは、ポイントクラウドから直接シーンフローを推定することを目指している。
本稿では,点雲からシーンフローを復元する,シンプルで解釈可能な目的関数を提案する。
論文 参考訳(メタデータ) (2020-10-31T17:24:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。