論文の概要: Dynamic Dense RGB-D SLAM using Learning-based Visual Odometry
- arxiv url: http://arxiv.org/abs/2205.05916v2
- Date: Wed, 28 Jun 2023 20:31:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-30 19:47:46.078311
- Title: Dynamic Dense RGB-D SLAM using Learning-based Visual Odometry
- Title(参考訳): 学習型ビジュアルオドメトリーを用いた動的高密度RGB-D SLAM
- Authors: Shihao Shen, Yilin Cai, Jiayi Qiu, Guangzhao Li
- Abstract要約: 本稿では,学習に基づくビジュアルオドメトリーであるTartanVOに基づく高密度な動的RGB-D SLAMパイプラインを提案する。
我々のパイプラインは、光学フロー出力を利用して動的/静的セグメンテーションを解決し、静的点のみをマップに融合する。
- 参考スコア(独自算出の注目度): 0.8029049649310211
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose a dense dynamic RGB-D SLAM pipeline based on a learning-based
visual odometry, TartanVO. TartanVO, like other direct methods rather than
feature-based, estimates camera pose through dense optical flow, which only
applies to static scenes and disregards dynamic objects. Due to the color
constancy assumption, optical flow is not able to differentiate between dynamic
and static pixels. Therefore, to reconstruct a static map through such direct
methods, our pipeline resolves dynamic/static segmentation by leveraging the
optical flow output, and only fuse static points into the map. Moreover, we
rerender the input frames such that the dynamic pixels are removed and
iteratively pass them back into the visual odometry to refine the pose
estimate.
- Abstract(参考訳): 本稿では,学習に基づくビジュアルオドメトリーであるTartanVOに基づく高密度な動的RGB-D SLAMパイプラインを提案する。
TartanVOは、機能ベースの他の直接的な方法と同様に、高密度の光学的流れを通してカメラのポーズを推定するが、これは静的なシーンにのみ適用され、動的オブジェクトを無視する。
色濃度の仮定により、光学フローは動的画素と静的画素の区別ができない。
したがって,このような直接的手法で静的マップを再構築するには,光フロー出力を利用して動的/静的セグメンテーションを解決し,静的ポイントのみをマップに融合する。
さらに、動的な画素を取り除いた入力フレームを再描画し、視覚的なオドメトリーに繰り返し転送してポーズ推定を洗練させる。
関連論文リスト
- V3D-SLAM: Robust RGB-D SLAM in Dynamic Environments with 3D Semantic Geometry Voting [1.3493547928462395]
動体とカメラのポーズの相関関係から,高度にダイナミックな環境下での同時位置決めとマッピング(SLAM)は困難である。
2つの軽量再評価段階を経て移動物体を除去するロバストな手法 V3D-SLAM を提案する。
TUM RGB-Dベンチマーク実験により,直近のSLAM法よりも高い性能を示した。
論文 参考訳(メタデータ) (2024-10-15T21:08:08Z) - Dynamic in Static: Hybrid Visual Correspondence for Self-Supervised Video Object Segmentation [126.12940972028012]
自己教師型ビデオオブジェクトセグメンテーションのためのフレームワークであるHVCを提案する。
HVCは静的画像から擬似力学信号を抽出し、効率的でスケーラブルなVOSモデルを実現する。
連立静的および動的整合性表現を学習するためのハイブリッド視覚対応損失を提案する。
論文 参考訳(メタデータ) (2024-04-21T02:21:30Z) - Vision-Informed Flow Image Super-Resolution with Quaternion Spatial
Modeling and Dynamic Flow Convolution [49.45309818782329]
フロー画像超解像(FISR)は、低分解能フロー画像から高分解能乱流速度場を復元することを目的としている。
既存のFISR法は主に自然画像パターンのフロー画像を処理する。
第一流れの視覚特性インフォームドFISRアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-29T06:48:16Z) - MPI-Flow: Learning Realistic Optical Flow with Multiplane Images [18.310665144874775]
実世界の画像からリアルな光フローデータセットを生成する。
高度に現実的な新しい画像を生成するため,単視点画像から多平面画像(MPI)と呼ばれる層状深度表現を構築した。
動きの現実性を確保するため,MPI内のカメラと動的物体の動きを分離できる独立な物体運動モジュールを提案する。
論文 参考訳(メタデータ) (2023-09-13T04:31:00Z) - Adaptive Multi-source Predictor for Zero-shot Video Object Segmentation [68.56443382421878]
ゼロショットビデオオブジェクトセグメンテーション(ZVOS)のための新しい適応型マルチソース予測器を提案する。
静的オブジェクト予測器では、RGBソースは、同時に深度および静注ソースに変換される。
実験の結果,提案モデルは3つのZVOSベンチマークにおいて最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-03-18T10:19:29Z) - Real-time SLAM Pipeline in Dynamics Environment [0.0]
我々は,RGB-D SLAM と YOLO リアルタイムオブジェクト検出を用いて動的シーンの分割と削除を行い,静的シーン3D を構築するソリューションを提案する。
我々は、セマンティクス、幾何学、物理学を共同で検討できるデータセットを収集し、全ての動的オブジェクトをフィルタリングしながら静的なシーンを再構築することを可能にする。
論文 参考訳(メタデータ) (2023-03-04T00:08:52Z) - Deep Dynamic Scene Deblurring from Optical Flow [53.625999196063574]
汚れは視覚的により快適な写真を提供し、写真がより便利になる。
非均一な曖昧さを数学的にモデル化することは困難である。
我々は,難解な特徴から鮮明な画像を復元する畳み込みニューラルネットワーク(CNN)を開発した。
論文 参考訳(メタデータ) (2023-01-18T06:37:21Z) - Physics Informed Neural Fields for Smoke Reconstruction with Sparse Data [73.8970871148949]
まばらなマルチビューRGBビデオから流体を高忠実に再現することは、まだまだ難しい課題だ。
既存のソリューションは、障害物や照明に関する知識を前提とするか、障害物や複雑な照明のない単純な流体シーンのみに焦点を当てる。
本稿では, 制御物理(Navier-Stokes方程式)をエンドツーエンドの最適化で活用することにより, 動的流体を再構築する最初の方法を提案する。
論文 参考訳(メタデータ) (2022-06-14T03:38:08Z) - DOT: Dynamic Object Tracking for Visual SLAM [83.69544718120167]
DOTはインスタンスセグメンテーションとマルチビュー幾何を組み合わせて、動的オブジェクトのマスクを生成する。
実際にどのオブジェクトが動いているかを判断するために、DOTは、潜在的にダイナミックなオブジェクトの最初のインスタンスを抽出し、次に推定されたカメラモーションで、測光再投射誤差を最小限にして、そのようなオブジェクトを追跡する。
提案手法はORB-SLAM 2の精度とロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-09-30T18:36:28Z) - Dynamic Object Tracking and Masking for Visual SLAM [1.37013665345905]
動的環境下では、動いた物体から得られる視覚的特徴によって視覚的SLAM技術の性能が損なわれる可能性がある。
本稿では、ディープニューラルネットワーク、拡張カルマンフィルタ、視覚SLAMを用いて、ローカライゼーションとマッピングの両方を改善するパイプラインを提案する。
論文 参考訳(メタデータ) (2020-07-31T20:37:14Z) - FlowFusion: Dynamic Dense RGB-D SLAM Based on Optical Flow [17.040818114071833]
ダイナミック/静的セグメンテーションとカメラのエゴモーション推定を同時に実現する新しいRGB-D SLAMソリューションを提案する。
我々の新しい特徴は、RGB-D点雲のダイナミックセマンティクスを強調するために光学フロー残基を使うことである。
論文 参考訳(メタデータ) (2020-03-11T04:00:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。