論文の概要: Self-Supervised Learning of Non-Rigid Residual Flow and Ego-Motion
- arxiv url: http://arxiv.org/abs/2009.10467v2
- Date: Mon, 19 Oct 2020 15:21:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 21:50:12.784849
- Title: Self-Supervised Learning of Non-Rigid Residual Flow and Ego-Motion
- Title(参考訳): 非剛性残留流と自我運動の自己教師付き学習
- Authors: Ivan Tishchenko, Sandro Lombardi, Martin R. Oswald, Marc Pollefeys
- Abstract要約: 動的3次元シーンに対する非剛性残留流とエゴ運動流の連成推定によるエンドツーエンドのシーンフロー学習法を提案する。
我々は、点クラウドシーケンスの時間的一貫性性に基づいて、自己監督的な信号で教師付きフレームワークを拡張した。
- 参考スコア(独自算出の注目度): 63.18340058854517
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most of the current scene flow methods choose to model scene flow as a per
point translation vector without differentiating between static and dynamic
components of 3D motion. In this work we present an alternative method for
end-to-end scene flow learning by joint estimation of non-rigid residual flow
and ego-motion flow for dynamic 3D scenes. We propose to learn the relative
rigid transformation from a pair of point clouds followed by an iterative
refinement. We then learn the non-rigid flow from transformed inputs with the
deducted rigid part of the flow. Furthermore, we extend the supervised
framework with self-supervisory signals based on the temporal consistency
property of a point cloud sequence. Our solution allows both training in a
supervised mode complemented by self-supervisory loss terms as well as training
in a fully self-supervised mode. We demonstrate that decomposition of scene
flow into non-rigid flow and ego-motion flow along with an introduction of the
self-supervisory signals allowed us to outperform the current state-of-the-art
supervised methods.
- Abstract(参考訳): 現在のシーンフロー法の多くは、3Dモーションの静的成分と動的成分を区別することなく、ポイント変換ベクトルとしてシーンフローをモデル化する。
本研究では,動的3次元シーンに対する非剛性残留流とエゴ運動流の連成推定によるエンドツーエンドのシーンフロー学習法を提案する。
我々は,一対の点雲から相対的剛性変換を学習し,反復的改良を行うことを提案する。
次に,変形入力からの非剛性流れを流れのデダクションされた剛性部で学習する。
さらに,点雲列の時間的一貫性特性に基づいて,自己スーパーバイザリー信号を用いた教師付きフレームワークを拡張する。
提案手法は, 自己スーパーバイザリー損失条件を補完する教師付きモードでのトレーニングと, 完全な自己教師付きモードでのトレーニングを両立させる。
シーンフローの非剛性流れとエゴモーションフローへの分解と自己監督信号の導入により、現在最先端の教師付き手法よりも優れていることを示す。
関連論文リスト
- Let Occ Flow: Self-Supervised 3D Occupancy Flow Prediction [14.866463843514156]
Occ Flowは、カメラ入力のみを使用して、関節の3D占有率と占有率の予測を行う最初の自己教師型作業である。
我々のアプローチは、動的オブジェクトの依存関係をキャプチャするために、新しい注意に基づく時間融合モジュールを組み込んでいる。
本手法は3次元容積流れ場に微分可能レンダリングを拡張する。
論文 参考訳(メタデータ) (2024-07-10T12:20:11Z) - SeFlow: A Self-Supervised Scene Flow Method in Autonomous Driving [18.88208422580103]
連続したLiDARスキャンで各点における3次元運動を予測する。
現在の最先端の手法は、シーンフローネットワークをトレーニングするために注釈付きデータを必要とする。
本研究では,効率的な動的分類を学習に基づくシーンフローパイプラインに統合するSeFlowを提案する。
論文 参考訳(メタデータ) (2024-07-01T18:22:54Z) - Self-Supervised 3D Scene Flow Estimation and Motion Prediction using
Local Rigidity Prior [100.98123802027847]
点群における3次元シーンフロー推定とクラス非依存動作予測について検討した。
我々は,一方向の剛性動作推定により,自己教師型学習のための擬似シーンフローラベルを生成する。
本手法は,自己監督型シーンフロー学習における最先端性能を実現する。
論文 参考訳(メタデータ) (2023-10-17T14:06:55Z) - SCOOP: Self-Supervised Correspondence and Optimization-Based Scene Flow [25.577386156273256]
シーンフロー推定は、連続した観察からシーンの3次元運動を見つけることを目的として、コンピュータビジョンにおける長年の課題である。
そこで本研究では,少量のデータから学習可能なシーンフロー推定手法であるSCOOPについて紹介する。
論文 参考訳(メタデータ) (2022-11-25T10:52:02Z) - Learning Scene Flow in 3D Point Clouds with Noisy Pseudo Labels [71.11151016581806]
そこで本研究では,3次元の3次元動きを点雲からキャプチャするシーンフロー手法を提案する。
提案手法は,最先端の自己教師型アプローチより優れるだけでなく,正確な接地構造を用いた教師型アプローチよりも優れる。
論文 参考訳(メタデータ) (2022-03-23T18:20:03Z) - SCTN: Sparse Convolution-Transformer Network for Scene Flow Estimation [71.2856098776959]
点雲は非秩序であり、その密度は著しく一様ではないため、点雲の3次元運動の推定は困難である。
本稿では,sparse convolution-transformer network (sctn) という新しいアーキテクチャを提案する。
学習した関係に基づく文脈情報が豊富で,対応点の一致に役立ち,シーンフローの推定に有効であることを示す。
論文 参考訳(メタデータ) (2021-05-10T15:16:14Z) - Weakly Supervised Learning of Rigid 3D Scene Flow [81.37165332656612]
本研究では,剛体体として動くエージェント群によって説明できる3次元シーンを多用したデータ駆動シーンフロー推定アルゴリズムを提案する。
4種類の自律運転データセットにおいて,提案手法の有効性と一般化能力を示す。
論文 参考訳(メタデータ) (2021-02-17T18:58:02Z) - FlowStep3D: Model Unrolling for Self-Supervised Scene Flow Estimation [87.74617110803189]
シーンフローとして知られるシーン内の点の3次元運動を推定することは、コンピュータビジョンにおける中核的な問題である。
本稿では,シーンフローの予測を洗練するための反復的アライメント手順の1ステップを学習する再帰的アーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-11-19T23:23:48Z) - Do not trust the neighbors! Adversarial Metric Learning for
Self-Supervised Scene Flow Estimation [0.0]
シーンフローは動的3次元シーンの個々の点に3次元運動ベクトルを推定するタスクである。
本稿では,3次元シーンフローベンチマークと,トレーニングフローモデルのための新しい自己教師型セットアップを提案する。
我々は,移動コヒーレンスを保ち,多くの自監督ベースラインが把握できない局所的なジオメトリーを維持できることを発見した。
論文 参考訳(メタデータ) (2020-11-01T17:41:32Z) - Adversarial Self-Supervised Scene Flow Estimation [15.278302535191866]
本研究では,自己監督型シーンフロー推定のためのメトリクス学習手法を提案する。
自己監督型シーンフロー推定のためのベンチマークであるScene Flow Sandboxについて概説する。
論文 参考訳(メタデータ) (2020-11-01T16:37:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。