論文の概要: Robust Ego and Object 6-DoF Motion Estimation and Tracking
- arxiv url: http://arxiv.org/abs/2007.13993v1
- Date: Tue, 28 Jul 2020 05:12:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 02:46:43.825191
- Title: Robust Ego and Object 6-DoF Motion Estimation and Tracking
- Title(参考訳): ロバストエゴとオブジェクト6-DoFの運動推定と追跡
- Authors: Jun Zhang and Mina Henein and Robert Mahony and Viorela Ila
- Abstract要約: 本稿では,動的多体視覚計測における高精度な推定と一貫した追跡性を実現するためのロバストな解を提案する。
セマンティック・インスタンスレベルのセグメンテーションと正確な光フロー推定の最近の進歩を活用して、コンパクトで効果的なフレームワークを提案する。
追従点の品質と運動推定精度を向上させる新しい定式化SE(3)運動と光流が導入された。
- 参考スコア(独自算出の注目度): 5.162070820801102
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The problem of tracking self-motion as well as motion of objects in the scene
using information from a camera is known as multi-body visual odometry and is a
challenging task. This paper proposes a robust solution to achieve accurate
estimation and consistent track-ability for dynamic multi-body visual odometry.
A compact and effective framework is proposed leveraging recent advances in
semantic instance-level segmentation and accurate optical flow estimation. A
novel formulation, jointly optimizing SE(3) motion and optical flow is
introduced that improves the quality of the tracked points and the motion
estimation accuracy. The proposed approach is evaluated on the virtual KITTI
Dataset and tested on the real KITTI Dataset, demonstrating its applicability
to autonomous driving applications. For the benefit of the community, we make
the source code public.
- Abstract(参考訳): カメラからの情報を用いて、シーン内の物体の動きをトラッキングする問題は、多体視覚計測と呼ばれており、困難な課題である。
本稿では,動的多体視覚オドメトリの正確な推定と一貫した追跡可能性を実現するためのロバストな解を提案する。
セマンティックなインスタンスレベルのセグメンテーションと正確な光フロー推定の最近の進歩を活用して,コンパクトで効果的なフレームワークを提案する。
トラック点の品質と運動推定精度を向上させるために,se(3)運動と光流れを共同で最適化した新しい定式化法を提案する。
提案手法は仮想KITTIデータセット上で評価され,実際のKITTIデータセット上でテストされる。
コミュニティの利益のために、私たちはソースコードを公開しています。
関連論文リスト
- MonST3R: A Simple Approach for Estimating Geometry in the Presence of Motion [118.74385965694694]
我々は動的シーンから時間ステップごとの幾何を直接推定する新しい幾何学的アプローチであるMotion DUSt3R(MonST3R)を提案する。
各タイムステップのポイントマップを単純に推定することで、静的シーンにのみ使用されるDUST3Rの表現を動的シーンに効果的に適応させることができる。
我々は、問題を微調整タスクとしてポーズし、いくつかの適切なデータセットを特定し、この制限されたデータ上でモデルを戦略的に訓練することで、驚くほどモデルを動的に扱えることを示す。
論文 参考訳(メタデータ) (2024-10-04T18:00:07Z) - LEAP-VO: Long-term Effective Any Point Tracking for Visual Odometry [52.131996528655094]
本稿では,LEAP(Long-term Effective Any Point Tracking)モジュールについて述べる。
LEAPは、動的トラック推定のために、視覚的、トラック間、時間的キューと慎重に選択されたアンカーを革新的に組み合わせている。
これらの特徴に基づき,強靭な視力計測システムLEAP-VOを開発した。
論文 参考訳(メタデータ) (2024-01-03T18:57:27Z) - UniQuadric: A SLAM Backend for Unknown Rigid Object 3D Tracking and
Light-Weight Modeling [7.626461564400769]
本稿では,エゴモーショントラッキング,剛体オブジェクトモーショントラッキング,モデリングを統一するSLAMバックエンドを提案する。
本システムは,複雑な動的シーンにおける物体知覚の潜在的な応用を実証する。
論文 参考訳(メタデータ) (2023-09-29T07:50:09Z) - Dyna-DepthFormer: Multi-frame Transformer for Self-Supervised Depth
Estimation in Dynamic Scenes [19.810725397641406]
シーン深度と3次元運動場を協調的に予測する新しいDyna-Depthformerフレームワークを提案する。
まず,多視点の相関を一連の自己・横断的層を通じて活用し,深度特徴表現の強化を図る。
第2に,動的物体の運動場をセマンティック・プレセプションを使わずに推定するワーピングに基づく運動ネットワークを提案する。
論文 参考訳(メタデータ) (2023-01-14T09:43:23Z) - CPPF++: Uncertainty-Aware Sim2Real Object Pose Estimation by Vote Aggregation [67.12857074801731]
そこで本研究では,シミュレートからリアルなポーズ推定のための新しい手法であるCPPF++を提案する。
投票衝突による課題に対処するため,投票の不確実性をモデル化する新たなアプローチを提案する。
ノイズの多いペアフィルタリング、オンラインアライメント最適化、機能アンサンブルなど、いくつかの革新的なモジュールを組み込んでいます。
論文 参考訳(メタデータ) (2022-11-24T03:27:00Z) - Neural Motion Fields: Encoding Grasp Trajectories as Implicit Value
Functions [65.84090965167535]
本稿では,ニューラルネットワークによってパラメータ化される暗黙的値関数として,オブジェクト点群と相対的タスク軌跡の両方を符号化する新しいオブジェクト表現であるNeural Motion Fieldsを提案する。
このオブジェクト中心表現は、SE(3)空間上の連続分布をモデル化し、サンプリングベースのMPCを利用して、この値関数を最適化することで、反応的に把握することができる。
論文 参考訳(メタデータ) (2022-06-29T18:47:05Z) - Information-Theoretic Odometry Learning [83.36195426897768]
生体計測推定を目的とした学習動機付け手法のための統合情報理論フレームワークを提案する。
提案フレームワークは情報理論言語の性能評価と理解のためのエレガントなツールを提供する。
論文 参考訳(メタデータ) (2022-03-11T02:37:35Z) - DetFlowTrack: 3D Multi-object Tracking based on Simultaneous
Optimization of Object Detection and Scene Flow Estimation [23.305159598648924]
オブジェクト検出とシーンフロー推定の同時最適化に基づく3次元MOTフレームワークを提案する。
特に回転を伴う動きの場合のより正確なシーンフローラベルについて,ボックス変換に基づくシーンフローグラウンド真理計算法を提案する。
KITTI MOTデータセットの実験結果は、回転を伴う極運動下での最先端とロバスト性に対して競合する結果を示した。
論文 参考訳(メタデータ) (2022-03-04T07:06:47Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。