論文の概要: PointFlowHop: Green and Interpretable Scene Flow Estimation from
Consecutive Point Clouds
- arxiv url: http://arxiv.org/abs/2302.14193v1
- Date: Mon, 27 Feb 2023 23:06:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-01 18:41:56.211557
- Title: PointFlowHop: Green and Interpretable Scene Flow Estimation from
Consecutive Point Clouds
- Title(参考訳): PointFlowHop: 連続点雲からの緑と解釈可能なシーンフロー推定
- Authors: Pranav Kadam, Jiahao Gu, Shan Liu, C.-C. Jay Kuo
- Abstract要約: 本研究では,PointFlowHopと呼ばれる3次元シーンフローの効率的な推定法を提案する。
ポイントフローホップは2つの連続する点雲を取り、第1点雲の各点の3次元フローベクトルを決定する。
シーンフロー推定タスクを,エゴモーション補償,オブジェクトアソシエーション,オブジェクトワイドモーション推定など,一連のサブタスクに分解する。
- 参考スコア(独自算出の注目度): 49.7285297470392
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An efficient 3D scene flow estimation method called PointFlowHop is proposed
in this work. PointFlowHop takes two consecutive point clouds and determines
the 3D flow vectors for every point in the first point cloud. PointFlowHop
decomposes the scene flow estimation task into a set of subtasks, including
ego-motion compensation, object association and object-wise motion estimation.
It follows the green learning (GL) pipeline and adopts the feedforward data
processing path. As a result, its underlying mechanism is more transparent than
deep-learning (DL) solutions based on end-to-end optimization of network
parameters. We conduct experiments on the stereoKITTI and the Argoverse LiDAR
point cloud datasets and demonstrate that PointFlowHop outperforms
deep-learning methods with a small model size and less training time.
Furthermore, we compare the Floating Point Operations (FLOPs) required by
PointFlowHop and other learning-based methods in inference, and show its big
savings in computational complexity.
- Abstract(参考訳): 本研究では,pointflowhopと呼ばれる効率的な3次元シーンフロー推定手法を提案する。
pointflowhopは2つの連続した点雲を取り、最初の点雲の各点に対する3dフローベクトルを決定する。
PointFlowHopは、シーンフロー推定タスクを、エゴモーション補償、オブジェクトアソシエーション、オブジェクトワイズモーション推定を含む一連のサブタスクに分解する。
green learning (gl)パイプラインに従い、feedforwardデータ処理パスを採用している。
その結果、その基盤となるメカニズムは、ネットワークパラメータのエンドツーエンド最適化に基づくディープラーニング(DL)ソリューションよりも透明性が高い。
我々は、ステレオKITTIとArgoverse LiDARポイントクラウドデータセットの実験を行い、PointFlowHopがモデルサイズが小さく、トレーニング時間も少ない深層学習法より優れていることを示す。
さらに,PointFlowHopと他の学習に基づく推論手法が必要とする浮動小数点演算(FLOP)を比較し,計算複雑性の大幅な削減を示す。
関連論文リスト
- Point Cloud Pre-training with Diffusion Models [62.12279263217138]
我々は、ポイントクラウド拡散事前学習(PointDif)と呼ばれる新しい事前学習手法を提案する。
PointDifは、分類、セグメンテーション、検出など、さまざまな下流タスクのために、さまざまな現実世界のデータセット間で大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-25T08:10:05Z) - SCOOP: Self-Supervised Correspondence and Optimization-Based Scene Flow [25.577386156273256]
シーンフロー推定は、連続した観察からシーンの3次元運動を見つけることを目的として、コンピュータビジョンにおける長年の課題である。
そこで本研究では,少量のデータから学習可能なシーンフロー推定手法であるSCOOPについて紹介する。
論文 参考訳(メタデータ) (2022-11-25T10:52:02Z) - What Matters for 3D Scene Flow Network [44.02710380584977]
点雲からの3次元シーンフロー推定はコンピュータビジョンにおける低レベルな3次元モーション知覚タスクである。
そこで本研究では,初期シーンフロー推定時の逆方向の信頼性検証が可能な,新しい全対全フロー埋め込み層を提案する。
提案したモデルは,FlyingThings3Dデータセットで少なくとも38.2%,KITTI Scene Flowデータセットで24.7%,EPE3Dメトリックで,既存のすべてのメソッドを上回ります。
論文 参考訳(メタデータ) (2022-07-19T09:27:05Z) - RCP: Recurrent Closest Point for Scene Flow Estimation on 3D Point
Clouds [44.034836961967144]
シーンフローや点雲の登録を含む3次元運動推定が注目されている。
最近の手法では、正確な3次元フローを推定するためのコストボリュームを構築するために、ディープニューラルネットワークを使用している。
問題を2つのインターレースステージに分解し、第1段階では3次元フローをポイントワイズに最適化し、第2段階ではリカレントネットワークでグローバルに正規化する。
論文 参考訳(メタデータ) (2022-05-23T04:04:30Z) - GPCO: An Unsupervised Green Point Cloud Odometry Method [64.86292006892093]
軽量な点状クラウド・オドメトリー法を提案し, GPCO法と名付けた。
GPCOは、連続点雲スキャンの特徴と一致することによって物体の動きを予測する教師なし学習法である。
GPCOは、モデルサイズが大幅に小さく、トレーニング時間も少ないのに対して、ディープラーニング手法のベンチマークを精度で上回ることが観察された。
論文 参考訳(メタデータ) (2021-12-08T00:24:03Z) - Self-Point-Flow: Self-Supervised Scene Flow Estimation from Point Clouds
with Optimal Transport and Random Walk [59.87525177207915]
シーンフローを近似する2点雲間の対応性を確立するための自己教師型手法を開発した。
本手法は,自己教師付き学習手法の最先端性能を実現する。
論文 参考訳(メタデータ) (2021-05-18T03:12:42Z) - SCTN: Sparse Convolution-Transformer Network for Scene Flow Estimation [71.2856098776959]
点雲は非秩序であり、その密度は著しく一様ではないため、点雲の3次元運動の推定は困難である。
本稿では,sparse convolution-transformer network (sctn) という新しいアーキテクチャを提案する。
学習した関係に基づく文脈情報が豊富で,対応点の一致に役立ち,シーンフローの推定に有効であることを示す。
論文 参考訳(メタデータ) (2021-05-10T15:16:14Z) - Do not trust the neighbors! Adversarial Metric Learning for
Self-Supervised Scene Flow Estimation [0.0]
シーンフローは動的3次元シーンの個々の点に3次元運動ベクトルを推定するタスクである。
本稿では,3次元シーンフローベンチマークと,トレーニングフローモデルのための新しい自己教師型セットアップを提案する。
我々は,移動コヒーレンスを保ち,多くの自監督ベースラインが把握できない局所的なジオメトリーを維持できることを発見した。
論文 参考訳(メタデータ) (2020-11-01T17:41:32Z) - PointHop++: A Lightweight Learning Model on Point Sets for 3D
Classification [55.887502438160304]
ポイントホップ法は、Zhangらによって、教師なし特徴抽出を伴う3Dポイントクラウド分類のために提案された。
1)モデルパラメータ数の観点からモデルの複雑さを減らし,2)クロスエントロピー基準に基づいて自動的に識別特徴を順序付けする。
ModelNet40ベンチマークデータセットで実施した実験により、PointHop++法がディープニューラルネットワーク(DNN)ソリューションと同等に動作し、他の教師なし特徴抽出法を上回る性能を示す。
論文 参考訳(メタデータ) (2020-02-09T04:49:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。