論文の概要: Toward Scalable, Flexible Scene Flow for Point Clouds
- arxiv url: http://arxiv.org/abs/2503.15666v1
- Date: Wed, 19 Mar 2025 19:33:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 16:34:21.359406
- Title: Toward Scalable, Flexible Scene Flow for Point Clouds
- Title(参考訳): ポイントクラウドのためのスケーラブルでフレキシブルなシーンフローを目指して
- Authors: Kyle Vedder,
- Abstract要約: シーンフロー推定(Scene flow Estimation)は、時間的に連続した観測の間の3次元運動を記述するタスクである。
この論文は、2つの重要な特性を持つシーンフロー推定器を構築するための基盤を構築することを目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Scene flow estimation is the task of describing 3D motion between temporally successive observations. This thesis aims to build the foundation for building scene flow estimators with two important properties: they are scalable, i.e. they improve with access to more data and computation, and they are flexible, i.e. they work out-of-the-box in a variety of domains and on a variety of motion patterns without requiring significant hyperparameter tuning. In this dissertation we present several concrete contributions towards this. In Chapter 1 we contextualize scene flow and its prior methods. In Chapter 2 we present a blueprint to build and scale feedforward scene flow estimators without requiring expensive human annotations via large scale distillation from pseudolabels provided by strong unsupervised test-time optimization methods. In Chapter 3 we introduce a benchmark to better measure estimate quality across diverse object types, better bringing into focus what we care about and expect from scene flow estimators, and use this benchmark to host a public challenge that produced significant progress. In Chapter 4 we present a state-of-the-art unsupervised scene flow estimator that introduces a new, full sequence problem formulation and exhibits great promise in adjacent domains like 3D point tracking. Finally, in Chapter 5 I philosophize about what's next for scene flow and its potential future broader impacts.
- Abstract(参考訳): シーンフロー推定(Scene flow Estimation)は、時間的に連続した観測の間の3次元運動を記述するタスクである。
この論文は、2つの重要な特性を持つシーンフロー推定器を構築するための基盤を構築することを目的としている。
この論文では、いくつかの具体的な貢献について述べる。
第1章では、シーンフローとその先行手法を文脈化します。
第2章では、強力な教師なしテスト時間最適化法によって提供される擬似ラベルからの大規模な蒸留を通じて、高価な人的アノテーションを必要とせずにフィードフォワードのシーンフロー推定装置を構築し、拡張する青写真を提示した。
第3章では、さまざまなオブジェクトタイプ間での見積もり品質をよりよく測定するベンチマークを導入し、関心事やシーンフロー推定器からの期待に焦点を合わせ、このベンチマークを使用して、大きな進歩をもたらしたパブリックチャレンジをホストします。
第4章では、新しいフルシーケンス問題の定式化を導入し、3Dポイントトラッキングのような隣接する領域で大きな将来性を示す、最先端の教師なしシーンフロー推定器を提示する。
最後に、第5章では、シーンフローの次に何が起こるか、そしてその潜在的な将来的な影響について哲学化します。
関連論文リスト
- Neural Eulerian Scene Flow Fields [59.57980592109722]
EulerFlowは、複数のドメインをチューニングすることなく、最初から動作します。
長期間の地平線上での推定ODEを解くことで、創発的な3次元点追跡挙動を示す。
2024年のArgoverse 2 Scene Flow Challengeでは、すべての先行技術より優れています。
論文 参考訳(メタデータ) (2024-10-02T20:56:45Z) - Self-Supervised 3D Scene Flow Estimation and Motion Prediction using
Local Rigidity Prior [100.98123802027847]
点群における3次元シーンフロー推定とクラス非依存動作予測について検討した。
我々は,一方向の剛性動作推定により,自己教師型学習のための擬似シーンフローラベルを生成する。
本手法は,自己監督型シーンフロー学習における最先端性能を実現する。
論文 参考訳(メタデータ) (2023-10-17T14:06:55Z) - PREF: Predictability Regularized Neural Motion Fields [68.60019434498703]
ダイナミックなシーンで3Dの動きを知ることは、多くの視覚応用にとって不可欠である。
多視点設定における全ての点の運動を推定するために神経運動場を利用する。
予測可能な動きを正規化することを提案する。
論文 参考訳(メタデータ) (2022-09-21T22:32:37Z) - Residual 3D Scene Flow Learning with Context-Aware Feature Extraction [11.394559627312743]
ユークリッド空間の文脈構造情報を活用するために,新しいコンテキスト対応集合 conv 層を提案する。
また, 遠距離移動に対処するため, 残留流微細化層に明示的な残留流学習構造を提案する。
提案手法は, これまでのすべての成果を, 少なくとも25%以上の知識に上回りながら, 最先端の性能を達成する。
論文 参考訳(メタデータ) (2021-09-10T06:15:18Z) - SCTN: Sparse Convolution-Transformer Network for Scene Flow Estimation [71.2856098776959]
点雲は非秩序であり、その密度は著しく一様ではないため、点雲の3次元運動の推定は困難である。
本稿では,sparse convolution-transformer network (sctn) という新しいアーキテクチャを提案する。
学習した関係に基づく文脈情報が豊富で,対応点の一致に役立ち,シーンフローの推定に有効であることを示す。
論文 参考訳(メタデータ) (2021-05-10T15:16:14Z) - FESTA: Flow Estimation via Spatial-Temporal Attention for Scene Point
Clouds [28.899804787744202]
シーンフローは、自律運転、ロボットナビゲーション、AR/VRなど、さまざまなアプリケーションにとって重要な3Dシーンのダイナミクスを描いている。
典型的な点雲サンプリングパターンのばらつきと不規則さのため、点雲からシーンフローを抽出することは依然として困難である。
不安定な抽象問題を軽減するために, 注意を伴う空間抽象(SA2)層を提案する。
a temporal abstraction with attention (ta2) layer は、時間領域における注意を正すために提案され、より広い範囲でスケールされた動きの利点をもたらす。
論文 参考訳(メタデータ) (2021-04-01T23:04:04Z) - Weakly Supervised Learning of Rigid 3D Scene Flow [81.37165332656612]
本研究では,剛体体として動くエージェント群によって説明できる3次元シーンを多用したデータ駆動シーンフロー推定アルゴリズムを提案する。
4種類の自律運転データセットにおいて,提案手法の有効性と一般化能力を示す。
論文 参考訳(メタデータ) (2021-02-17T18:58:02Z) - Learning to Segment Rigid Motions from Two Frames [72.14906744113125]
本研究では, 運動場から独立物体の動きを復元する幾何学的解析により, モジュラーネットワークを提案する。
2つの連続フレームを入力とし、背景のセグメンテーションマスクと複数の剛体移動オブジェクトを予測し、3次元の剛体変換によってパラメータ化する。
本手法はkittiおよびsintelにおける剛体運動セグメンテーションの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-11T04:20:30Z) - Do not trust the neighbors! Adversarial Metric Learning for
Self-Supervised Scene Flow Estimation [0.0]
シーンフローは動的3次元シーンの個々の点に3次元運動ベクトルを推定するタスクである。
本稿では,3次元シーンフローベンチマークと,トレーニングフローモデルのための新しい自己教師型セットアップを提案する。
我々は,移動コヒーレンスを保ち,多くの自監督ベースラインが把握できない局所的なジオメトリーを維持できることを発見した。
論文 参考訳(メタデータ) (2020-11-01T17:41:32Z) - Adversarial Self-Supervised Scene Flow Estimation [15.278302535191866]
本研究では,自己監督型シーンフロー推定のためのメトリクス学習手法を提案する。
自己監督型シーンフロー推定のためのベンチマークであるScene Flow Sandboxについて概説する。
論文 参考訳(メタデータ) (2020-11-01T16:37:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。