論文の概要: RP-VIO: Robust Plane-based Visual-Inertial Odometry for Dynamic
Environments
- arxiv url: http://arxiv.org/abs/2103.10400v1
- Date: Thu, 18 Mar 2021 17:33:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-19 13:53:34.671736
- Title: RP-VIO: Robust Plane-based Visual-Inertial Odometry for Dynamic
Environments
- Title(参考訳): RP-VIO:動的環境のためのロバスト平面型ビジュアル慣性オドメトリー
- Authors: Karnik Ram, Chaitanya Kharyal, Sudarshan S. Harithas, K. Madhava
Krishna
- Abstract要約: 動的環境のための最先端のビジュアル慣性オドメトリーシステムRP-VIOについて述べる。
また,現代のvinsシステムの能力をより効果的に評価するために,高ダイナミックでフォトリアリスティックな合成データセットを提案する。
- 参考スコア(独自算出の注目度): 14.260575326111585
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern visual-inertial navigation systems (VINS) are faced with a critical
challenge in real-world deployment: they need to operate reliably and robustly
in highly dynamic environments. Current best solutions merely filter dynamic
objects as outliers based on the semantics of the object category. Such an
approach does not scale as it requires semantic classifiers to encompass all
possibly-moving object classes; this is hard to define, let alone deploy. On
the other hand, many real-world environments exhibit strong structural
regularities in the form of planes such as walls and ground surfaces, which are
also crucially static. We present RP-VIO, a monocular visual-inertial odometry
system that leverages the simple geometry of these planes for improved
robustness and accuracy in challenging dynamic environments. Since existing
datasets have a limited number of dynamic elements, we also present a
highly-dynamic, photorealistic synthetic dataset for a more effective
evaluation of the capabilities of modern VINS systems. We evaluate our approach
on this dataset, and three diverse sequences from standard datasets including
two real-world dynamic sequences and show a significant improvement in
robustness and accuracy over a state-of-the-art monocular visual-inertial
odometry system. We also show in simulation an improvement over a simple
dynamic-features masking approach. Our code and dataset are publicly available.
- Abstract(参考訳): 現代の視覚慣性ナビゲーションシステム(VINS)は、現実世界の展開において重要な課題に直面している。
現在のベストソリューションは、オブジェクトカテゴリのセマンティクスに基づいて、動的オブジェクトを外れ値としてフィルターするだけです。
このようなアプローチは、実行可能なすべてのオブジェクトクラスを包含するためにセマンティックな分類器を必要とするため、スケールしない。
一方で、多くの実世界の環境は、壁や地面のような平面の形で強い構造規則性を示しており、これも極めて静的である。
本稿では,これらの平面の簡易な形状を利用して,動的環境におけるロバスト性や精度を向上させる単眼視慣性オドメトリシステムrp-vioを提案する。
既存のデータセットは限られた動的要素を持つため、現代のVINSシステムの性能をより効果的に評価するための高ダイナミックで光リアルな合成データセットも提示する。
このデータセットに対するアプローチを評価し、実世界の2つの動的シーケンスを含む標準データセットからの3つの多様なシーケンスを評価し、最先端の単眼視覚慣性オドメトリーシステムよりもロバスト性と精度が著しく向上することを示した。
また,単純な動的特徴マスキングアプローチによる改善をシミュレーションで示す。
コードとデータセットは公開されています。
関連論文リスト
- LiveHPS: LiDAR-based Scene-level Human Pose and Shape Estimation in Free
Environment [59.320414108383055]
シーンレベルの人間のポーズと形状推定のための単一LiDARに基づく新しいアプローチであるLiveHPSを提案する。
多様な人間のポーズを伴う様々なシナリオで収集される巨大な人間の動きデータセットFreeMotionを提案する。
論文 参考訳(メタデータ) (2024-02-27T03:08:44Z) - Periodic Vibration Gaussian: Dynamic Urban Scene Reconstruction and
Real-time Rendering [38.74244725059936]
周期振動ガウスモデル(PVG)を提案する。
PVGは、当初静的シーン表現のために設計された効率的な3Dガウススプラッティング技術に基づいている。
PVGは動的シーンと静的シーンの両方に対して、再構築と新規ビュー合成の両方において最先端の代替手段を超越していることを示す。
論文 参考訳(メタデータ) (2023-11-30T13:53:50Z) - Eagle: Large-Scale Learning of Turbulent Fluid Dynamics with Mesh
Transformers [23.589419066824306]
流体力学を推定することは、解決するのが非常に難しい。
問題に対する新しいモデル,メソッド,ベンチマークを導入する。
我々の変換器は、既存の合成データセットと実際のデータセットの両方において、最先端のパフォーマンスより優れていることを示す。
論文 参考訳(メタデータ) (2023-02-16T12:59:08Z) - Visual-Inertial Multi-Instance Dynamic SLAM with Object-level
Relocalisation [14.302118093865849]
密結合型ビジュアル・慣性オブジェクトレベルのマルチインスタンス動的SLAMシステムを提案する。
カメラのポーズ、速度、IMUバイアスを強く最適化し、環境の高密度な3D再構成オブジェクトレベルマップを構築することができる。
論文 参考訳(メタデータ) (2022-08-08T17:13:24Z) - Dynamic Spatial Sparsification for Efficient Vision Transformers and
Convolutional Neural Networks [88.77951448313486]
視覚データにおける空間空間空間性を利用したモデルアクセラレーションのための新しい手法を提案する。
本稿では,冗長トークンを具現化する動的トークンスペーシフィケーションフレームワークを提案する。
提案手法は,CNNや階層型視覚変換器などの階層モデルに拡張する。
論文 参考訳(メタデータ) (2022-07-04T17:00:51Z) - ACID: Action-Conditional Implicit Visual Dynamics for Deformable Object
Manipulation [135.10594078615952]
本稿では,体積変形可能なオブジェクトに対する動作条件の視覚力学モデルであるACIDを紹介する。
ベンチマークには17,000以上のアクション・トラジェクトリー、6種類のぬいぐるみと78種類の変種が含まれている。
我々のモデルは、幾何学、対応、力学の予測において最高の性能を達成する。
論文 参考訳(メタデータ) (2022-03-14T04:56:55Z) - Towards Scale Consistent Monocular Visual Odometry by Learning from the
Virtual World [83.36195426897768]
仮想データから絶対スケールを取得するための新しいフレームワークであるVRVOを提案する。
まず、モノクロ実画像とステレオ仮想データの両方を用いて、スケール対応の異種ネットワークをトレーニングする。
結果として生じるスケール一貫性の相違は、直接VOシステムと統合される。
論文 参考訳(メタデータ) (2022-03-11T01:51:54Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - DOT: Dynamic Object Tracking for Visual SLAM [83.69544718120167]
DOTはインスタンスセグメンテーションとマルチビュー幾何を組み合わせて、動的オブジェクトのマスクを生成する。
実際にどのオブジェクトが動いているかを判断するために、DOTは、潜在的にダイナミックなオブジェクトの最初のインスタンスを抽出し、次に推定されたカメラモーションで、測光再投射誤差を最小限にして、そのようなオブジェクトを追跡する。
提案手法はORB-SLAM 2の精度とロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-09-30T18:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。