論文の概要: Self-Point-Flow: Self-Supervised Scene Flow Estimation from Point Clouds
with Optimal Transport and Random Walk
- arxiv url: http://arxiv.org/abs/2105.08248v1
- Date: Tue, 18 May 2021 03:12:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-19 13:59:12.865370
- Title: Self-Point-Flow: Self-Supervised Scene Flow Estimation from Point Clouds
with Optimal Transport and Random Walk
- Title(参考訳): セルフポイントフロー:最適移動とランダム歩行を伴うポイントクラウドからの自己教師付きシーンフロー推定
- Authors: Ruibo Li, Guosheng Lin, Lihua Xie
- Abstract要約: シーンフローを近似する2点雲間の対応性を確立するための自己教師型手法を開発した。
本手法は,自己教師付き学習手法の最先端性能を実現する。
- 参考スコア(独自算出の注目度): 59.87525177207915
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the scarcity of annotated scene flow data, self-supervised scene flow
learning in point clouds has attracted increasing attention. In the
self-supervised manner, establishing correspondences between two point clouds
to approximate scene flow is an effective approach. Previous methods often
obtain correspondences by applying point-wise matching that only takes the
distance on 3D point coordinates into account, introducing two critical issues:
(1) it overlooks other discriminative measures, such as color and surface
normal, which often bring fruitful clues for accurate matching; and (2) it
often generates sub-par performance, as the matching is operated in an
unconstrained situation, where multiple points can be ended up with the same
corresponding point. To address the issues, we formulate this matching task as
an optimal transport problem. The output optimal assignment matrix can be
utilized to guide the generation of pseudo ground truth. In this optimal
transport, we design the transport cost by considering multiple descriptors and
encourage one-to-one matching by mass equality constraints. Also, constructing
a graph on the points, a random walk module is introduced to encourage the
local consistency of the pseudo labels. Comprehensive experiments on
FlyingThings3D and KITTI show that our method achieves state-of-the-art
performance among self-supervised learning methods. Our self-supervised method
even performs on par with some supervised learning approaches, although we do
not need any ground truth flow for training.
- Abstract(参考訳): 注釈付きシーンフローデータの不足により,ポイントクラウドにおける自己教師ありシーンフロー学習が注目されている。
自己監督的な方法では、2点雲間の対応性を確立することが効果的なアプローチである。
従来の手法では、3次元点座標上の距離のみを考慮し、(1)色や表面の正常といった他の識別的指標を見落とし、(2)マッチングが制約のない状況で操作され、複数の点が同じ対応点に終止符を打つため、しばしばサブパー性能を生成する。
この問題に対処するため、このマッチングタスクを最適な輸送問題として定式化する。
出力最適割り当て行列を用いて擬似基底真理の生成を導くことができる。
この最適輸送法では,複数の記述子を考慮した輸送コストを設計し,質量等式制約による1対1のマッチングを奨励する。
また、各点にグラフを構築することにより、擬似ラベルの局所的一貫性を促進するランダムウォークモジュールを導入する。
FlyingThings3D と KITTI の総合的な実験により,本手法が自己教師付き学習手法の最先端性能を実現することを示す。
我々の自己指導手法は、訓練に基礎的な真実の流れを必要としないが、教師付き学習手法と同等に機能する。
関連論文リスト
- SeFlow: A Self-Supervised Scene Flow Method in Autonomous Driving [18.88208422580103]
連続したLiDARスキャンで各点における3次元運動を予測する。
現在の最先端の手法は、シーンフローネットワークをトレーニングするために注釈付きデータを必要とする。
本研究では,効率的な動的分類を学習に基づくシーンフローパイプラインに統合するSeFlowを提案する。
論文 参考訳(メタデータ) (2024-07-01T18:22:54Z) - ICP-Flow: LiDAR Scene Flow Estimation with ICP [2.9290232815049926]
シーンフローは、近くの時間ステップで自動運転車が捉えた2つのLiDARスキャン間の3D運動を特徴付ける。
我々は,学習不要なフロー推定器であるICP-Flowを提案し,オブジェクトをスキャン上で関連付け,局所的な剛性変換を推定する。
教師付きモデルを含む最先端のベースラインをデータセット上で上回り、Argoverse-v2とnuScenesで競合的に実行します。
論文 参考訳(メタデータ) (2024-02-27T09:41:59Z) - Self-Supervised 3D Scene Flow Estimation and Motion Prediction using
Local Rigidity Prior [100.98123802027847]
点群における3次元シーンフロー推定とクラス非依存動作予測について検討した。
我々は,一方向の剛性動作推定により,自己教師型学習のための擬似シーンフローラベルを生成する。
本手法は,自己監督型シーンフロー学習における最先端性能を実現する。
論文 参考訳(メタデータ) (2023-10-17T14:06:55Z) - PointFlowHop: Green and Interpretable Scene Flow Estimation from
Consecutive Point Clouds [49.7285297470392]
本研究では,PointFlowHopと呼ばれる3次元シーンフローの効率的な推定法を提案する。
ポイントフローホップは2つの連続する点雲を取り、第1点雲の各点の3次元フローベクトルを決定する。
シーンフロー推定タスクを,エゴモーション補償,オブジェクトアソシエーション,オブジェクトワイドモーション推定など,一連のサブタスクに分解する。
論文 参考訳(メタデータ) (2023-02-27T23:06:01Z) - SCOOP: Self-Supervised Correspondence and Optimization-Based Scene Flow [25.577386156273256]
シーンフロー推定は、連続した観察からシーンの3次元運動を見つけることを目的として、コンピュータビジョンにおける長年の課題である。
そこで本研究では,少量のデータから学習可能なシーンフロー推定手法であるSCOOPについて紹介する。
論文 参考訳(メタデータ) (2022-11-25T10:52:02Z) - Learning Scene Flow in 3D Point Clouds with Noisy Pseudo Labels [71.11151016581806]
そこで本研究では,3次元の3次元動きを点雲からキャプチャするシーンフロー手法を提案する。
提案手法は,最先端の自己教師型アプローチより優れるだけでなく,正確な接地構造を用いた教師型アプローチよりも優れる。
論文 参考訳(メタデータ) (2022-03-23T18:20:03Z) - Unsupervised Representation Learning for 3D Point Cloud Data [66.92077180228634]
我々は、教師なしのポイントクラウド学習に対して、シンプルで効果的なアプローチを提案する。
特に、原点雲の優れたコントラストバージョンを生成する非常に有用な変換を同定する。
本研究では,3次元オブジェクト分類,形状部分分割,シーン分割の3つの下流タスクについて実験を行った。
論文 参考訳(メタデータ) (2021-10-13T10:52:45Z) - SCTN: Sparse Convolution-Transformer Network for Scene Flow Estimation [71.2856098776959]
点雲は非秩序であり、その密度は著しく一様ではないため、点雲の3次元運動の推定は困難である。
本稿では,sparse convolution-transformer network (sctn) という新しいアーキテクチャを提案する。
学習した関係に基づく文脈情報が豊富で,対応点の一致に役立ち,シーンフローの推定に有効であることを示す。
論文 参考訳(メタデータ) (2021-05-10T15:16:14Z) - Do not trust the neighbors! Adversarial Metric Learning for
Self-Supervised Scene Flow Estimation [0.0]
シーンフローは動的3次元シーンの個々の点に3次元運動ベクトルを推定するタスクである。
本稿では,3次元シーンフローベンチマークと,トレーニングフローモデルのための新しい自己教師型セットアップを提案する。
我々は,移動コヒーレンスを保ち,多くの自監督ベースラインが把握できない局所的なジオメトリーを維持できることを発見した。
論文 参考訳(メタデータ) (2020-11-01T17:41:32Z) - Adversarial Self-Supervised Scene Flow Estimation [15.278302535191866]
本研究では,自己監督型シーンフロー推定のためのメトリクス学習手法を提案する。
自己監督型シーンフロー推定のためのベンチマークであるScene Flow Sandboxについて概説する。
論文 参考訳(メタデータ) (2020-11-01T16:37:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。