論文の概要: RP-VIO: Robust Plane-based Visual-Inertial Odometry for Dynamic
Environments
- arxiv url: http://arxiv.org/abs/2103.10400v1
- Date: Thu, 18 Mar 2021 17:33:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-19 13:53:34.671736
- Title: RP-VIO: Robust Plane-based Visual-Inertial Odometry for Dynamic
Environments
- Title(参考訳): RP-VIO:動的環境のためのロバスト平面型ビジュアル慣性オドメトリー
- Authors: Karnik Ram, Chaitanya Kharyal, Sudarshan S. Harithas, K. Madhava
Krishna
- Abstract要約: 動的環境のための最先端のビジュアル慣性オドメトリーシステムRP-VIOについて述べる。
また,現代のvinsシステムの能力をより効果的に評価するために,高ダイナミックでフォトリアリスティックな合成データセットを提案する。
- 参考スコア(独自算出の注目度): 14.260575326111585
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern visual-inertial navigation systems (VINS) are faced with a critical
challenge in real-world deployment: they need to operate reliably and robustly
in highly dynamic environments. Current best solutions merely filter dynamic
objects as outliers based on the semantics of the object category. Such an
approach does not scale as it requires semantic classifiers to encompass all
possibly-moving object classes; this is hard to define, let alone deploy. On
the other hand, many real-world environments exhibit strong structural
regularities in the form of planes such as walls and ground surfaces, which are
also crucially static. We present RP-VIO, a monocular visual-inertial odometry
system that leverages the simple geometry of these planes for improved
robustness and accuracy in challenging dynamic environments. Since existing
datasets have a limited number of dynamic elements, we also present a
highly-dynamic, photorealistic synthetic dataset for a more effective
evaluation of the capabilities of modern VINS systems. We evaluate our approach
on this dataset, and three diverse sequences from standard datasets including
two real-world dynamic sequences and show a significant improvement in
robustness and accuracy over a state-of-the-art monocular visual-inertial
odometry system. We also show in simulation an improvement over a simple
dynamic-features masking approach. Our code and dataset are publicly available.
- Abstract(参考訳): 現代の視覚慣性ナビゲーションシステム(VINS)は、現実世界の展開において重要な課題に直面している。
現在のベストソリューションは、オブジェクトカテゴリのセマンティクスに基づいて、動的オブジェクトを外れ値としてフィルターするだけです。
このようなアプローチは、実行可能なすべてのオブジェクトクラスを包含するためにセマンティックな分類器を必要とするため、スケールしない。
一方で、多くの実世界の環境は、壁や地面のような平面の形で強い構造規則性を示しており、これも極めて静的である。
本稿では,これらの平面の簡易な形状を利用して,動的環境におけるロバスト性や精度を向上させる単眼視慣性オドメトリシステムrp-vioを提案する。
既存のデータセットは限られた動的要素を持つため、現代のVINSシステムの性能をより効果的に評価するための高ダイナミックで光リアルな合成データセットも提示する。
このデータセットに対するアプローチを評価し、実世界の2つの動的シーケンスを含む標準データセットからの3つの多様なシーケンスを評価し、最先端の単眼視覚慣性オドメトリーシステムよりもロバスト性と精度が著しく向上することを示した。
また,単純な動的特徴マスキングアプローチによる改善をシミュレーションで示す。
コードとデータセットは公開されています。
関連論文リスト
- OmniPose6D: Towards Short-Term Object Pose Tracking in Dynamic Scenes from Monocular RGB [40.62577054196799]
実環境の多様性を反映した大規模合成データセットOmniPose6Dを提案する。
本稿では,ポーズ追跡アルゴリズムの総合的な比較のためのベンチマークフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-09T09:01:40Z) - MonST3R: A Simple Approach for Estimating Geometry in the Presence of Motion [118.74385965694694]
我々は動的シーンから時間ステップごとの幾何を直接推定する新しい幾何学的アプローチであるMotion DUSt3R(MonST3R)を提案する。
各タイムステップのポイントマップを単純に推定することで、静的シーンにのみ使用されるDUST3Rの表現を動的シーンに効果的に適応させることができる。
我々は、問題を微調整タスクとしてポーズし、いくつかの適切なデータセットを特定し、この制限されたデータ上でモデルを戦略的に訓練することで、驚くほどモデルを動的に扱えることを示す。
論文 参考訳(メタデータ) (2024-10-04T18:00:07Z) - DENSER: 3D Gaussians Splatting for Scene Reconstruction of Dynamic Urban Environments [0.0]
動的オブジェクトの表現を大幅に強化するフレームワークであるDENSERを提案する。
提案手法は最先端の手法を広いマージンで大幅に上回る。
論文 参考訳(メタデータ) (2024-09-16T07:11:58Z) - Dynamic Scene Understanding through Object-Centric Voxelization and Neural Rendering [57.895846642868904]
オブジェクト中心学習が可能な動的シーンのための3次元生成モデルDynaVol-Sを提案する。
ボキセル化は、個々の空間的位置において、物体ごとの占有確率を推定する。
提案手法は2次元セマンティックな特徴を統合して3次元セマンティック・グリッドを作成し,複数の不整合ボクセル・グリッドを通してシーンを表現する。
論文 参考訳(メタデータ) (2024-07-30T15:33:58Z) - Visual-Inertial Multi-Instance Dynamic SLAM with Object-level
Relocalisation [14.302118093865849]
密結合型ビジュアル・慣性オブジェクトレベルのマルチインスタンス動的SLAMシステムを提案する。
カメラのポーズ、速度、IMUバイアスを強く最適化し、環境の高密度な3D再構成オブジェクトレベルマップを構築することができる。
論文 参考訳(メタデータ) (2022-08-08T17:13:24Z) - ACID: Action-Conditional Implicit Visual Dynamics for Deformable Object
Manipulation [135.10594078615952]
本稿では,体積変形可能なオブジェクトに対する動作条件の視覚力学モデルであるACIDを紹介する。
ベンチマークには17,000以上のアクション・トラジェクトリー、6種類のぬいぐるみと78種類の変種が含まれている。
我々のモデルは、幾何学、対応、力学の予測において最高の性能を達成する。
論文 参考訳(メタデータ) (2022-03-14T04:56:55Z) - Towards Scale Consistent Monocular Visual Odometry by Learning from the
Virtual World [83.36195426897768]
仮想データから絶対スケールを取得するための新しいフレームワークであるVRVOを提案する。
まず、モノクロ実画像とステレオ仮想データの両方を用いて、スケール対応の異種ネットワークをトレーニングする。
結果として生じるスケール一貫性の相違は、直接VOシステムと統合される。
論文 参考訳(メタデータ) (2022-03-11T01:51:54Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - DOT: Dynamic Object Tracking for Visual SLAM [83.69544718120167]
DOTはインスタンスセグメンテーションとマルチビュー幾何を組み合わせて、動的オブジェクトのマスクを生成する。
実際にどのオブジェクトが動いているかを判断するために、DOTは、潜在的にダイナミックなオブジェクトの最初のインスタンスを抽出し、次に推定されたカメラモーションで、測光再投射誤差を最小限にして、そのようなオブジェクトを追跡する。
提案手法はORB-SLAM 2の精度とロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-09-30T18:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。