論文の概要: Do not trust the neighbors! Adversarial Metric Learning for
Self-Supervised Scene Flow Estimation
- arxiv url: http://arxiv.org/abs/2011.07945v1
- Date: Sun, 1 Nov 2020 17:41:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 23:11:29.178267
- Title: Do not trust the neighbors! Adversarial Metric Learning for
Self-Supervised Scene Flow Estimation
- Title(参考訳): 隣人を信用するな!
自己監督型シーンフロー推定のための対数距離学習
- Authors: Victor Zuanazzi
- Abstract要約: シーンフローは動的3次元シーンの個々の点に3次元運動ベクトルを推定するタスクである。
本稿では,3次元シーンフローベンチマークと,トレーニングフローモデルのための新しい自己教師型セットアップを提案する。
我々は,移動コヒーレンスを保ち,多くの自監督ベースラインが把握できない局所的なジオメトリーを維持できることを発見した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Scene flow is the task of estimating 3D motion vectors to individual points
of a dynamic 3D scene. Motion vectors have shown to be beneficial for
downstream tasks such as action classification and collision avoidance.
However, data collected via LiDAR sensors and stereo cameras are computation
and labor intensive to precisely annotate for scene flow. We address this
annotation bottleneck on two ends. We propose a 3D scene flow benchmark and a
novel self-supervised setup for training flow models. The benchmark consists of
datasets designed to study individual aspects of flow estimation in progressive
order of complexity, from a single object in motion to real-world scenes.
Furthermore, we introduce Adversarial Metric Learning for self-supervised flow
estimation. The flow model is fed with sequences of point clouds to perform
flow estimation. A second model learns a latent metric to distinguish between
the points translated by the flow estimations and the target point cloud. This
latent metric is learned via a Multi-Scale Triplet loss, which uses
intermediary feature vectors for the loss calculation. We use our proposed
benchmark to draw insights about the performance of the baselines and of
different models when trained using our setup. We find that our setup is able
to keep motion coherence and preserve local geometries, which many
self-supervised baselines fail to grasp. Dealing with occlusions, on the other
hand, is still an open challenge.
- Abstract(参考訳): シーンフローは動的3次元シーンの個々の点に3次元運動ベクトルを推定するタスクである。
動作ベクトルは、アクション分類や衝突回避といった下流タスクに有益であることが示されている。
しかし、LiDARセンサーやステレオカメラを通じて収集されたデータは計算と労働集約的であり、シーンフローに正確にアノテートする。
このアノテーションのボトルネックを両端で解決する。
本研究では,3次元シーンフローベンチマークと,新しい自己教師あり設定を提案する。
ベンチマークは、フロー推定の個々の側面を、単一のオブジェクトの動きから現実世界のシーンまで、複雑さの順に調査するために設計されたデータセットで構成されている。
さらに,自己教師付きフロー推定のためのAdversarial Metric Learningを導入する。
フローモデルは点雲の列で供給され、フロー推定を行う。
第2のモデルは、フロー推定によって翻訳されたポイントとターゲットポイントクラウドとを区別するために潜在メトリックを学習する。
この潜在メトリックは、中間特徴ベクトルを用いて損失計算を行うマルチスケールトリプルト損失によって学習される。
提案したベンチマークを使用して、セットアップを使用してトレーニングした際のベースラインと異なるモデルのパフォーマンスに関する洞察を引き出します。
我々は,移動コヒーレンスを保ち,多くの自監督ベースラインが把握できない局所的なジオメトリーを維持できることを発見した。
一方、オクルージョンで対処することは、まだオープンな課題である。
関連論文リスト
- SeFlow: A Self-Supervised Scene Flow Method in Autonomous Driving [18.88208422580103]
連続したLiDARスキャンで各点における3次元運動を予測する。
現在の最先端の手法は、シーンフローネットワークをトレーニングするために注釈付きデータを必要とする。
本研究では,効率的な動的分類を学習に基づくシーンフローパイプラインに統合するSeFlowを提案する。
論文 参考訳(メタデータ) (2024-07-01T18:22:54Z) - ICP-Flow: LiDAR Scene Flow Estimation with ICP [2.9290232815049926]
シーンフローは、近くの時間ステップで自動運転車が捉えた2つのLiDARスキャン間の3D運動を特徴付ける。
我々は,学習不要なフロー推定器であるICP-Flowを提案し,オブジェクトをスキャン上で関連付け,局所的な剛性変換を推定する。
教師付きモデルを含む最先端のベースラインをデータセット上で上回り、Argoverse-v2とnuScenesで競合的に実行します。
論文 参考訳(メタデータ) (2024-02-27T09:41:59Z) - PointFlowHop: Green and Interpretable Scene Flow Estimation from
Consecutive Point Clouds [49.7285297470392]
本研究では,PointFlowHopと呼ばれる3次元シーンフローの効率的な推定法を提案する。
ポイントフローホップは2つの連続する点雲を取り、第1点雲の各点の3次元フローベクトルを決定する。
シーンフロー推定タスクを,エゴモーション補償,オブジェクトアソシエーション,オブジェクトワイドモーション推定など,一連のサブタスクに分解する。
論文 参考訳(メタデータ) (2023-02-27T23:06:01Z) - SCOOP: Self-Supervised Correspondence and Optimization-Based Scene Flow [25.577386156273256]
シーンフロー推定は、連続した観察からシーンの3次元運動を見つけることを目的として、コンピュータビジョンにおける長年の課題である。
そこで本研究では,少量のデータから学習可能なシーンフロー推定手法であるSCOOPについて紹介する。
論文 参考訳(メタデータ) (2022-11-25T10:52:02Z) - Residual 3D Scene Flow Learning with Context-Aware Feature Extraction [11.394559627312743]
ユークリッド空間の文脈構造情報を活用するために,新しいコンテキスト対応集合 conv 層を提案する。
また, 遠距離移動に対処するため, 残留流微細化層に明示的な残留流学習構造を提案する。
提案手法は, これまでのすべての成果を, 少なくとも25%以上の知識に上回りながら, 最先端の性能を達成する。
論文 参考訳(メタデータ) (2021-09-10T06:15:18Z) - Self-Point-Flow: Self-Supervised Scene Flow Estimation from Point Clouds
with Optimal Transport and Random Walk [59.87525177207915]
シーンフローを近似する2点雲間の対応性を確立するための自己教師型手法を開発した。
本手法は,自己教師付き学習手法の最先端性能を実現する。
論文 参考訳(メタデータ) (2021-05-18T03:12:42Z) - SCTN: Sparse Convolution-Transformer Network for Scene Flow Estimation [71.2856098776959]
点雲は非秩序であり、その密度は著しく一様ではないため、点雲の3次元運動の推定は困難である。
本稿では,sparse convolution-transformer network (sctn) という新しいアーキテクチャを提案する。
学習した関係に基づく文脈情報が豊富で,対応点の一致に役立ち,シーンフローの推定に有効であることを示す。
論文 参考訳(メタデータ) (2021-05-10T15:16:14Z) - Weakly Supervised Learning of Rigid 3D Scene Flow [81.37165332656612]
本研究では,剛体体として動くエージェント群によって説明できる3次元シーンを多用したデータ駆動シーンフロー推定アルゴリズムを提案する。
4種類の自律運転データセットにおいて,提案手法の有効性と一般化能力を示す。
論文 参考訳(メタデータ) (2021-02-17T18:58:02Z) - FlowStep3D: Model Unrolling for Self-Supervised Scene Flow Estimation [87.74617110803189]
シーンフローとして知られるシーン内の点の3次元運動を推定することは、コンピュータビジョンにおける中核的な問題である。
本稿では,シーンフローの予測を洗練するための反復的アライメント手順の1ステップを学習する再帰的アーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-11-19T23:23:48Z) - Adversarial Self-Supervised Scene Flow Estimation [15.278302535191866]
本研究では,自己監督型シーンフロー推定のためのメトリクス学習手法を提案する。
自己監督型シーンフロー推定のためのベンチマークであるScene Flow Sandboxについて概説する。
論文 参考訳(メタデータ) (2020-11-01T16:37:37Z) - Self-Supervised Learning of Non-Rigid Residual Flow and Ego-Motion [63.18340058854517]
動的3次元シーンに対する非剛性残留流とエゴ運動流の連成推定によるエンドツーエンドのシーンフロー学習法を提案する。
我々は、点クラウドシーケンスの時間的一貫性性に基づいて、自己監督的な信号で教師付きフレームワークを拡張した。
論文 参考訳(メタデータ) (2020-09-22T11:39:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。